Աշխարհում, որտեղ ցանկացած ձայն կարելի է կեղծել մեկ րոպեում, իսկ դեմքը՝ մի քանի վայրկյանում, վստահությունը դարձել է ամենափոքր արժեքներից մեկը։ Այսօր ամեն ինչ կարող է կեղծ լինել՝ զանգը «հարազատից», տեսանյութը «պաշտոնյայից», հաղորդագրությունը «հայտնի անձից» կամ նույնիսկ ձեր սեփական ձայնի ձայնագրությունը, որը դուք երբեք չեք ձայնագրել։
Armenia Today-ը պատրաստել է մանրամասն ուղեցույց այն մասին, թե ինչպես տարբերակել իրական տեսանյութերն ու աուդիոն ֆեյքերից։ Խոսքը բարդ տեխնիկական փորձագիտության մասին չէ, այլ պարզ մեթոդների մասին, որոնք գործում են իրական կյանքում և հասանելի են բոլորին՝ դեռահասներից մինչև տարեցներ։ Նույնիսկ ամենաառաջադեմ տեխնոլոգիաները չեն կարող հաղթահարել ուշադրությունը և առողջ բանականությունը։
Այսօր խորը ֆեյքը արհեստական բանականության միջոցով ստեղծված տեսանյութ կամ աուդիո է, որը նմանակում է որոշակի անձի՝ նրա դեմքը, դեմքի արտահայտությունները, ձայնը, շնչառությունը և հույզերը։ Մինչև 2026 թվականը նման կեղծիքները դարձել են այնքան բարձրորակ, որ դրանք «զգայարանով» ճանաչելը գրեթե անհնար է։ Այնուամենայնիվ, նույնիսկ ամենաբարդ ալգորիթմները շարունակում են հետքեր թողնել՝ փոքր տեխնիկական սխալներ, որոնք մեքենաները դեռևս չեն կարող լիովին թաքցնել։
Տեսանյութ դիտելիս առաջին հերթին պետք է ուշադրություն դարձնել շուրթերին ու ատամներին։ Նույնիսկ լավագույն ալգորիթմները երբեմն միկրոխափանումներ են թույլ տալիս խոսքի և շուրթերի շարժումների համաժամեցման մեջ։ Եթե տեսանյութը դիտում եք առանց ձայնի և նկատում եք, որ արտաբերումը մի փոքր անբնական է թվում, սա մտահոգության առիթ է։
Երկրորդ կարևոր նշիչն աչքերն են։ Արհեստական բանականությունը դեռևս վատ է վերարտադրում հայացքի քաոսային միկրոշարժումները, բնական թարթումը և մտածելիս աչքերի թեթևակի ցնցումը։ Եթե մարդը հազվադեպ, հավասարաչափ և չափազանց հավասարաչափ թարթում է, սա կարող է վկայել կեղծիքի մասին։
Երրորդ հիմնական ցուցանիշը լույսն ու ստվերներն են։ Լուսավորության ֆիզիկան մնում է ամենադժվար ստեղծվող տարրերից մեկը։ Տարօրինակ շողշողունությունը, լույսի սխալ ուղղությունը կամ ստվերները, որոնք, կարծես, իրենց առանձին կյանքով են, հաճախ արհեստական բանականության նշան են։ Եթե դեմքը կարծես կպած է ֆոնին, ապա, ամենայն հավանականությամբ, դա թվային դիմակ է։
Խորը կեղծիքները նույնպես ունեն իրենց յուրահատուկ թույլ կողմերը։ Շնչառությունը և դադարները դավաճանում են իսկական խոսքին։ Կեղծիքների դեպքում շնչառությունը հաճախ չափազանց հանգիստ է կամ կատարյալ հավասար, դադարները կրկնվում են կանոնավոր ժամանակահատվածներում, հույզերը չեն համընկնում շնչառության հետ, իսկ ձայնն ինքնին չափազանց պարզ է՝ առանց ֆոնային աղմուկի: Այս նրբերանգները դեռևս չափազանց դժվար է բնական ճանապարհով կեղծել։
Ամենաարդյունավետ ամենօրյա ստուգման մեթոդը մնում է այսպես կոչված «հարց-կոդը»: Եթե ձեզ զանգահարում է ենթադրաբար մտերիմ անձը, տվեք մի հարց, որի պատասխանը միայն նա գիտի: Օրինակ՝ հիշեցրեք նրան ընտանեկան որևէ կոնկրետ դեպքի կամ անցյալի որևէ մանրամասնության մասին, որը հրապարակայնորեն չի գրանցվել: Արհեստական բանականությունը նման գիտելիքների հասանելիություն չունի և գրեթե միշտ ձախողվում է այս փուլում։
Մետատվյալները՝ ֆայլի տեխնիկական «անձնագիրը», նույնպես արժե նշել: Կարևոր է հասկանալ, որ մետատվյալները չեն աշխատում սոցիալական ցանցերում. Instagram-ը, TikTok-ը, YouTube-ը, Facebook-ը և WhatsApp-ի նման հաղորդագրությունների հավելվածները ամբողջությամբ հեռացնում են այն: Եթե տեսանյութը դիտվում է որևէ հարթակի ներսում, դրա ծագումը հնարավոր չէ որոշել: Մետատվյալները կարող են վերլուծվել միայն այն դեպքում, եթե դուք ունեք բնօրինակ ֆայլը, օրինակ՝ եթե տեսանյութը Telegram է ուղարկվել որպես ֆայլ, փոխանցվել է Google Drive-ի, iCloud-ի կամ Dropbox-ի միջոցով, կամ պահվել է սարքի վրա՝ առանց վերբեռնվելու: Այս դեպքում դուք կարող եք տեսնել ստեղծման ամսաթիվը և ժամը, սարքի մոդելը, աշխարհագրական դիրքը և խմբագրման կամ ստեղծման ծրագրերի հետքերը: Մետատվյալների բացակայությունը այնտեղ, որտեղ այն պետք է լինի, ևս մեկ կարմիր դրոշ է։
Գոյություն ունեն նաև առցանց խորը կեղծիքի դետեկտորներ, որոնք վերլուծում են տեսանյութերը 10-20 վայրկյանում՝ հիմնվելով մի շարք պարամետրերի վրա, ներառյալ թարթումը, մաշկի հյուսվածքը, պիքսելային խափանումները և սեղմման բնութագրերը: Այս գործիքների թվում են Reality Defender-ը, Microsoft Video Authenticator-ը, Hive AI-ը, Sensity AI-ը և Google-ի փորձարարական դետեկտորը: Դրանք չեն առաջարկում 100% երաշխիք, բայց կարող են ծառայել որպես ստուգման լրացուցիչ շերտ։
Սպառնալիքի հասկացողությունը նույնպես կարևոր է, քանի որ խաբեբաները ակտիվորեն կօգտագործեն խորը կեղծիքի տեխնոլոգիաները 2025-2026 թվականներին: Ամենատարածված սխեմաներից են կեղծ «մանկական» ձայնով և խուճապով զանգերը, ընկերության ղեկավարների կողմից անհապաղ դրամական փոխանցումներ պահանջող զանգերի կեղծումը, «պաշտոնյաների» տեսանյութերի տարածումը՝ ճնշում գործադրելու և մանիպուլյացիաներ իրականացնելու համար, և Zoom զանգերը, որտեղ էկրանին «գործընկերոջ» դեմքը իրականում ալգորիթմ է։
Նման հանգամանքներում մասնագետները խորհուրդ են տալիս հետևել պարզ «ոսկե կանոնի»՝ ստուգման երեք մակարդակների։ Նախ, անցկացվում է տեսողական թեստ՝ շրթունքներ, աչքեր, ստվերներ, դեմքի արտահայտություններ։ Այնուհետև՝ աուդիո ստուգում՝ շնչառություն, դադարներ, հույզեր, ֆոնային աղմուկ։ Եվ վերջապես՝ փաստերի ստուգում՝ կոդային հարց, իրական անձի հետ կապվելու փորձ և ֆայլերի վերլուծություն։ Եթե այս մակարդակներից նույնիսկ մեկը կասկած է առաջացնում, տեսանյութը կամ աուդիոն պետք է համարել կասկածելի։
Deepfake տեխնոլոգիաները կշարունակեն զարգանալ, բայց ուշադրությունը, քննադատական մտածողությունը և պարզ ստուգման կանոնները մնում են ամենահուսալի պաշտպանությունը։
