Сақ болыңыз: deepfake. Қорғанудың негізгі тәсілдері

Асель Қайратқызы 30 қыр. 2025 12:00

Жасанды интеллект дәуірінде адамзат қол жеткізген әрбір жаңалық өзімен бірге мүмкіндіктер мен қауіп- қатерлерді қатар ала келеді. Соның бірі- дипфейк (deepfake) технологиясы. Бұл термин жасанды интеллект (AI) пен терең оқыту (deep learning) әдістерінің көмегімен жасалатын жалған аудио, бейне немесе фото контентті білдіреді. Осы жайында біз PhD кандидаты, Astana IT University аға оқытушысы Қоспақов Айтуар Мейрамұлымен сұхбаттасып, дипфейктен қорғанудың жолдары туралы сөз қозғадық.

Цифрлық көзбояушылық: Дипфейк деген не?

Маман пікірі:

«Дипфейк» сөзі ағылшын тіліндегі «deep learning» (терең оқыту) және «fake» (жалған)ұғымдарының қосындысынан шыққан. Бұл – жасанды интеллекттің көмегімен адамның бейнесі мен дауысын дәлме-дәл көшіріп, жалған фото, видео немесе аудио жасау технологиясы. Мәселен, сіз ешқашан сөйлемеген немесе жасаған жоқ ісіңіз бейнежазбада дәл сіздің кейпіңізбен көрсетілуі мүмкін. Түріңіз, мимикаңыз, тіпті дауыс ырғағыңыз- бәрі бір сәтте жалған оқиғаға айналуы ғажап емес.»

Дипфейк және киберқылмыс

«Дипфейк- киберқылмыстың жаңа құралы. Бастапқыда дипфейк кино мен ойын-сауық саласында қолданылғанымен, кейін бұл технология киберқылмыстық әрекеттерге таптырмас құралға айналды. Бүгінде дипфейк арқылы адамдардың беделіне нұқсан келтіріп, қаржы жымқыру, шантаж жасау, жалған ақпарат тарату сияқты әрекеттер жиі кездесуде.

Дипфейк технологиясын қолдану мысалдары:

Алаяқтық: зиянкестер дипфейк арқылы компания басшысының дауысын айнытпай салып, қызметкерлерге ақша аударуға бұйрық бергендей көрініс жасай алады. Бұл- ірі қаржы алаяқтығына жол ашатын қауіпті әдіс.

Жалған ақпарат тарату және беделге нұқсан келтіру: дипфейк көмегімен фейк жаңалықтар немесе адамды масқаралайтын жалған контент жасалып, қоғамда адасушылық туғызып, тұлғаның абыройына сызат түсуі мүмкін.

Жағымды әрі пайдалы қолданысы да бар: бұл технология дауысынан айырылған адамдарға табиғи сөйлеу мүмкіндігін қайтаруға, фильмдерді әртүрлі тілге бейімдеуге немесе аудиокітаптар жасауға көмектесе алады.»,- дейді маман.

«Пайдалы» цифрлық жағы

Бүгінде бұл технология кино индустриясында сәтті қолданылып жүр. Ол актердің цифрлық көшірмесін жасап, фильм түсіруде пайдалануға және шығармашылық мүмкіндіктерді кеңейтуге жол ашады. Сапалы имитация жарнамалық роликтер жасау мен маркетингтік бюджетті үнемдеуде де тиімді.

Дипфейк технологиясы адамдардың дауысын имитациялау үшін де қолданылуы мүмкін. Бұл дубляж сапасын арттыруға көмектеседі. Сонымен қатар, дипфейкті музейлерде, галереяларда және арт-кеңістіктерде толықтырылған шынайылық ретінде пайдалануға болады.

Deepfake: қалай тануға болады және қалай қорғану керек?

«Егер күмәніңіз болса- алдымен видеоны өз бетіңше талдап көріңіз: шын видео ма, әлде жалған ба? Нақты емес тұстар мен қалыптан ауытқуларға назар аударыңыз. Бұл- ерсі қимылдаған ерін мен қас, дұрыс емес жыпылықтау, жарықтың біркелкі түспеуі, тері реңінің айырмашылықтары, кескін сапасының әртүрлілігі, элементтердің көмескі шекаралары және тағы да басқа майда, алғашқы кезден байқалмайтын белгілер болуы мүмкін. Сонымен қатар, келесі белгілерге назар аударғаныңыз жөн: видеодағы адамның жүзі анық көрінбеуі немесе бұлдыр болып шығуы. Сөйлесу кезінде мимиканың болмауы (ашық қолжетімді дипфейк жасау құралдары көбіне адамның бет- әлпет қимылын дәл жеткізе алмайды). Дипфейктерде көбіне тек бет бөлігі ауыстырылады, сондықтан шекара байқалуы мүмкін – көлеңкенің , жарықтың және тері реңінің айырмашылықтары көзге түседі.

Сондай- ақ, видеодан сөйлескен кезде адамды шашын түзетіп, көзілдірігін шешуді сияқты қарапайым іс- әрекеттерді жасауды сұрауға болады. Әдетте мұндай әрекеттер кезінде дипфейк арқылы жасалған бейнеде ақаулар пайда бола бастайды- сіз оны оңай байқайсыз.

Алайда қазіргі таңда технологиялар өте жылдам дамуда. Соңғы буындағы дипфейктер шынайыға қатты ұқсайды, және оны ажырату қиын болып келеді. Кейде оларды жай көзбен ажырату мүмкін емес. Мұндай жағдайда арнайы тану бағдарламалары көмекке келеді. Олар видеоны мұқият сараптап, дипфейк жасау кезінде пайда болған өте ұсақ бұрмалаушылықтарды анықтайды. Мұндай сканерлер фото және видео контентпен жақсы жұмыс істейді.

Аудиодипфейктерді анықтау қиынырақ бірақ оларды жасау аса күрделі емес: мұндай жалған жазбаны синтездеу үшін, адамның даусы жазылған бір ғана аудиожазба жеткілікті. Қазіргі таңда аудиожазбаларды кәдімгі мәтін сияқты өңдеуге мүмкіндік беретін технологиялар да бар.

Аудиофейкті қосымша құралдарсыз тану өте қиын. Ғалымдар бұл мәселені шешу үшін ерекше тәсіл ұсынды- адамның дауыс аппаратына (тіл, жақ, ерін сияқты анатомтялық ерекшеліктерге) сүйену. Себебі жасанды интеллект көмегімен дыбыс шығарылғанда, осы табиғи ерекшеліктер ескерілмейді. Яғни, дипфейк аудиосында адам ешқандай қателік жібермей, «ммм» сияқты артық сөздерді қолданбай, монотонды, бір қалыпты сөйлейді»,- дейді маман.

Дипфейктен қалай қорғануға болады?

«Ең тиімді қорғаныс- қауіпсіздік ережелерін сақтау:

Жеке фото және видеоңызды әлеуметтік желілерге не бөгде сервистерге жүктемеуге тырысыңыз (немесе ең болмағанда, оларды шектеулі түрде ғана жариялаңыз);

Әріптестеріңіз бен туыстарыңызды дипфейктің қалай жұмыс істейтіні және оның қандай қауіп- қатерге әкелуі мүмкін екені туралы хабардар етіңіз;

Егер сізге ұсынылған ақпарат күмән тудырса- оны растау үшін балама байланыс арнасын пайдаланыңыз;

Сөйлесіп отырған адамның тұлғасын растау қажет болса,тек сіз екеуіңіз ғана білетін қандай да бір деректі сұраңыз;

Киберқауіпсіздіктің негізгі талаптарын ұстаныңыз: құпиясөздерді сенімді сақтау, деректерді қорғау, зиянды бағдарламалардан қорғану, деректерді сақтық көшірмелеу және т.б. осындай сақтық шараларын қолдану қажет.

Алайда мұндай шабуыл түрлерінен қорғанудың басты жолы- пайдаланушыларды бұл қауіптер туралы алдын ала хабардар ету және олармен бетпе- бет келген жағдайда дайын болуын қамтамасыз ету»,- дейді маман.

Қосымша ақпарат ретінде:

Дипфейкті анықтауға көмектесетін бағдарламалар:

Forensically- суреттерді талдауға арналған тегін әрі түсінікті құралдар жиынтығы.

Image Edited- фотосуреттердегі өзгерістерді анықтап, пиксель мен  түс деңгейінде сараптама жүргізетін тегін сервис.

Ghiro- көптеген суреттерді автоматты түрде талдап, криминалистикалық зерттеу жүргізуге арналған бағдарлама.

Truepic- фото және видеоматериалдарға өзгеріс енгізілген-енгізілмегенін тексереді.

KaiCatch- жасанды интеллект арқылы фото мен видеодағы аномалиялар мен бұрмалаушылықтарды анықтайды.

Дипфейк технологиясы күн сайын жетіліп, шынайы контенттен ажырату барған сайын қиындай түсуде. Осыған байланысты әрбір адам цифрлық сауатты болуы керек. Ең басты қорғаныс- бұл ақпараттандырылған болу. Өз фото- видео материалдарыңызды ашық жариялаудан бас тарту, жақындарыңызды осындай технологиялардың қаупі жайлы хабардар ету және киберқауіпсіздік ережелерін сақтау- сіздің жеке деректеріңіз бен абыройыңызды қорғаудың негізгі жолы.


Ұсынылған
Соңғы жаңалықтар