Цифрлық технологияның дамуы, жасанды интеллектің өмірімізге дендеп енуі, қиберқауіпсіздік маңызының артуы халықтың тұрмысына оң әсер еткенімен көптеген мәселелерді де туындатқаны рас. Әсіресе салада алаяқтықтың өршуі байқалды, тұрғындардың әлі де болса да өмірімізге енген терминдердің қызметін түсінбеуі байқалып отыр. Сондықтан «Касперский зертханасында» Машиналық оқыту технологияларын зерттеу және әзірлеу тобының жетекшісі Владислав Тушканов мырзамен арнайы сұхбаттасып, жаңа өзгерістердің мәні мен маңызын, өмірімізге қаншалықты пайдалы екеніне талдау жасаған едік.
– Киберқауіпсіздік дегеніміз не? Қарапайым тілмен түсіндіруіңізді өтінемін.
– Киберқауіпсіздік – бұл әртүрлі киберқауіптердің алдын алуға бағытталған шаралар жиынтығы. Мобильді құрылғыны, компьютерді, желіні немесе серверді қауіпсіздендіру өте маңызды, сондықтан зиянкестер оларға қол жеткізе алмайды және оны өз мақсаттары үшін пайдалана алмайды – мысалы, бопсалау үшін жеке деректеріңізді жинау, банктік шоттарға кіру кодтарын ұрлау немесе құрылғының ресурстарын пайдалану секілді қауіптер бар.
– Қазақстандық қоғам "киберқауіпсіздік" терминін дұрыс түсінеді деп ойлайсыз ба?
– Киберқауіпсіздік сарапшылары келесіге назар аударады: қорғаныс жан-жақты болуы керек, яғни техникалық және техникалық емес шараларды қамтуы керек. Біріншісіне, мысалы, күмәнді ресурсқа көшуге жол бермейтін немесе кіріс қоңырауы қажет болмаса, ескертетін арнайы қорғаныс шешімдері кіреді. Соңғысы-сандық сауаттылықты үнемі арттыру, мысалы, арнайы курстар арқылы.
2022 жылғы желтоқсан – 2023 жылғы қаңтарда "Касперский зертханасы" жүргізген сауалнамалардың бірі Қазақстанда көптеген пайдаланушылар қорғаныс құралдарын елемейтінін көрсетті. Мәселен, өткен жылы әрбір сұхбаттасқан қазақстандық кем дегенде бір рет қаскүнемдер одан немесе оның жақындарынан ақша, банк картасының деректері немесе интернет-банкингке кіруден деректерді тартып алуға тырысқан жағдайға тап болды. Бұл ретте пайдаланушылардың салыстырмалы түрде аз санын қорғау үшін мамандандырылған бағдарламаларды пайдаланады:респонденттердің тек 15%-ы телефон алаяқтығынан қорғау шешімдерін, 33%-ы интернеттегі зиянкестерден қорғау шешімдерін пайдаланады.
– Қазақстанда киберқылмыстың өсуіне не себеп?
– Шабуылдаушылардың техникасы, әдістері мен аңыздары барған сайын күрделене түседі, сондықтан кейде тіпті тәжірибелі қолданушы да қармаққа түсіп қалуы мүмкін. Сонымен қатар, Машиналық оқыту технологиялары жетілдірілуде, оны алаяқтар өздерінің алдау схемаларында қолданады. Мысалы, олардың көмегімен олар сенімді фишингтік хаттар жасай алады.
– Киберқылмыстың артында кім тұр? Әдетте қандай адамдар хакерлерге барады?
– "Ақ" хакерлерді "қара" хакерлерден ажырату маңызды. Біріншісі өз қабілеттерін жүзеге асырудың заңды жолын таңдайды – олардың қауіпсіздігін тексеру үшін жүйелердегі осалдықтарды табуға тырысады. Екіншісі осалдықтарды іздеумен және бұзумен айналысады, мысалы, бопсалау немесе төлем алу үшін.
– Бүгінгі таңда интернетте өзіңізді қалай қорғауға болады? Киберқауіптерден қауіпсіздік шаралары туралы айтып беріңізші.
– Желіде сергек болу маңызды: тым жомарт хабарламаларға сын көзбен қараңыз; күмәнді хабарламалардан сілтемелер мен тіркемелерді ашпаңыз; күдікті ресурстарға құпия деректерді енгізбеңіз. Бұған мүмкіндік беретін қызметтерде екі факторлы аутентификацияны қолданыңыз. Құрылғыда орнатылған ОЖ мен бағдарламаларды үнемі жаңартып отыруды ұмытпаңыз. Сонымен қатар, фишингтік немесе скам-ресурсқа көшу әрекеті туралы ескертетін сенімді қорғаныс шешімін орнатқан жөн.
– 2023 жылы киберқауіптердің қандай түрлері жиі кездесті? Биылғы жылы не күтілуде?
– Қарапайым пайдаланушылар үшін киберқауіптерге келетін болсақ, өткен жылы біз әлі де телефон алаяқтарының шабуылдарын, скам және фишингтік шабуылдарды көрдік. Зиянкестер алдаудың әдістері мен тактикасын жетілдіруді жалғастыруда, өз аңыздарын өзекті жаңалықтар күн тәртібіне бейімдеп, неғұрлым сенімді әрекет етуге тырысады. Сондықтан біз жақын арада телефон алаяқтық, фишинг және скам көлемінің төмендеуінің алғышарттарын көрмейміз.
– Адамдар жеке деректердің тарап кетпеуі үшін не істеу керек? Бірнеше кеңестер берсеңіз.
– Пайдаланушылар кибергигиена ережелерін сақтай отырып, жеке деректерін қорғай алады. Күмәнді ресурстарда жеке деректерді қалдырмаңыз; тіркеу кезінде қосымша өрістерді толтырыңыз; тауарларға тапсырыс беру кезінде түсініктеме өрістеріне жеке деректерді енгізіңіз (мысалы, интеркомнан код). Сондай-ақ, олардың бұзылуын болдырмау үшін барлық есептік жазбалар үшін екі факторлы аутентификация мен әртүрлі құпия сөздерді қолданған жөн.
– Елімізде жасанды интелект термині де жиі қолданылатын болды. Бүгінгі таңда ЖИ бүкіл әлемде ғана емес, Қазақстанда да дамуда. Жалпы, ЖИ дамуы оң үрдіс пе?
– Жасанды интеллект пен машиналық оқытудың дамуы, кез — келген жаңа технология сияқты, оң өзгерістерді де, белгілі бір тәуекелдерді де алып жүретін прогресс. Ақылға қонымды пайдалану кезінде Машиналық оқыту технологиялары өте үлкен пайда әкелуі мүмкін. Олар монотонды, күнделікті еңбекпен айналысатын адамдардан жүктемені алып тастай алады, клиенттер үшін жекелендірілген тәжірибе жасай алады. Мысалы, қызықты өнімдерді немесе 24/7 қолдауды ұсыну) немесе басқа әдістер мен алгоритмдер жасай алмайтын мәселелерді шеше алады, мысалы, кескіндерді, тілді, дыбысты және бейнені өңдеуге қатысты.
Біріншіден, әрине, пайда монотонды зияткерлік жұмысты автоматтандырумен байланысты. Мысалы, "Касперский зертханасы" күн сайын 400 мыңнан астам зиянды нысандарды анықтайды. Әлбетте, мұндай санды сарапшылардың еңбегімен қолмен өңдеу мүмкін емес және автоматтандыру, соның ішінде Машиналық оқыту арқылы өте пайдалы.
– ЖИ неге қауіпті болуы мүмкін?
– Өкінішке орай, бүгінгі күні Машиналық оқыту технологияларының тәуекелдері де бар. Атап айтқанда, бұл зиянды мақсаттарда қолдануға болатын генеративті жасанды интеллектке де қатысты. Мысалы, терең фейктер деп аталатын технологияларды алаяқтықта қолдануға болады. Зиянкестер жәбірленушілерді алаяқтық схемаларға тарту үшін танымал адамдармен бейнелер жасайды, нәтижесінде адамдар ақшаны немесе құпия деректерді жоғалтады. Сонымен қатар, алаяқтар дауыстық фейктерді әріптестерінің (атап айтқанда бастықтардың) немесе таныстарының атынан ықтимал құрбандарды шабуылдаушылардың шотына ақша аударуға сендіру үшін қолданады.
Мәтіндік нейрондар да қауіп төндіруі мүмкін. Атап айтқанда, шабуылдаушылар оларды алаяқтық хаттар жасау үшін пайдалана алады. Біздің қараңғы желідегі белсенділік туралы зерттеулеріміз көрсеткендей, шабуылдаушылар тілдік модельдерге негізделген чатботтар оларға зиянды код жазу сияқты заңсыз әрекеттерге байланысты белгілі бір операцияларды немесе әрекеттерді орындауды қалай жеңілдететінін белсенді түрде талқылайды.
– Бүгінгі таңда ЖИ технологиясының дамуы қандай деңгейде?
– Қарқынды технологиялық прогресс пен қоғамдағы өзгерістер аясында «жасанды интеллект» термині жаһандық пікірталастардың алдыңғы қатарында берік орын алды. Бұл технология дамыған сайын адамдар құпиялылық мәселелеріне көбірек тап болады, бұл ЖИ киберқауіпсіздік саласынан алшақ қарауды мүмкін емес етеді. «Касперский зертханасының» сарапшылары жасанды интеллекттің қарқынды дамуының салдарын болжауға тырысты. Алаяқтар суреттер мен бейнелер жасау үшін нейронды желілерді жиірек пайдаланады. 2024 жылы зиянкестер сенімді мазмұн жасау үшін нейронды желілерді жиі қолдана алады. Нәтижесінде алаяқтық әрекеттері күрделене түсуі мүмкін, бұл шабуылдар мен олардан жәбірленушілер көбеюіне алып келеді. Өткен жылы мәтіндік деректерді, дыбысты, суреттер мен бейнелерді өңдейтін алгоритмдердің сапасы күрт өсті. Енді үлкен тілдік модельдер мәтіндік деректердің үлкен көлемін өңдей алады. Мысалы, көлемі жағынан романмен салыстыруға болады. Және олар бойынша сапалы жауаптар бере алады. Кескін генераторлары фотографиялық сапалы кескіндер жасай алады, ең жақсы Алгоритмдер алдыңғы нұсқалардың стандартты мәселелерін шешті, мысалы, адамның қолын бейнелеу проблемалары. Ең қызықты даму сызығы - мультимодальды модельдер — мәтінмен де, суреттермен де бірден жұмыс істей алатындар, мысалы, рентген сәулесін алу және ол бойынша медициналық сұрақтарға жауап беру.
Өкінішке орай, мысалы, тілдік модельдердің галлюцинацияға бейімділігіне, яғни іс жүзінде дұрыс емес жауаптарға қатысты мәселелер әлі де бар. Біздің зерттеулеріміздің бірінде біз фишингтік (алаяқтық) сілтемелерді анықтау мәселесіне осындай модельдерді қолдану мүмкіндігін зерттедік. Көбінесе модель аргумент ретінде ойдан шығарылған ақпаратты келтіре отырып, жауап берді.
- Роботтың еңбек қызметінде адамды алмастыруы қаншалықты мүмкін? Бұл қаншалықты шынайы?
– Әзірге, алгоритмдер жасай алмайтын көптеген тапсырмалар бар. Сонымен қатар, жұмысты адам орындағаны жөн көптеген тапсырмалар бар. Бұл, ең алдымен, қатенің бағасы жоғары болатын салаларға байланысты. Бұл жағдайда адам соңғы шешімді қабылдауы керек, өйткені егер ол қате жіберсе және нәтижесінде адамға зиян келтірілсе, алгоритм қалай жауап беретіні белгісіз.
- ЖИ нені уәде етеді немесе қандай қауіп төндіреді – жұмыс орындарын жоғалту немесе адам үшін жұмысты жеңілдету?
– Әрбір күрделі технологиялық трансформация еңбек нарығының құрылымының өзгеруіне әкеледі. Машиналық оқыту технологиялары интеллектуалды еңбек шеңберіндегі қайталанатын және қызықсыз міндеттерден арылуға, олардың тиімділігін арттыруға және күрделі, шығармашылық және стандартты емес тапсырмаларды шешуге уақыт бөлуге мүмкіндік береді. Мысалы, SOC талдаушысы, яғни компанияның желідегі белсенділігін бақылайтын және оның ішінен ықтимал қауіпті іздейтін қауіпсіздік маманы күніне көптеген оқиғаларды қарауға мәжбүр. Көбінесе компаниялар осы мамандардың жетіспеушілігіне тап болады. Машиналық оқытудың арқасында ең аз күдікті оқиғаларды автоматты түрде өңдеуге болады, бұл адамға күрделі және қызықты тапсырмаларға назар аударуға мүмкіндік береді. Көп жағдайда біз жасанды интеллект туралы өнімділікті арттырудың көмекшісі ретінде айтатын болсақ, кейбір салаларда бұл жұмыс құрылымының қатты өзгеруіне әкелуі мүмкін.
2024 жылы генеративті ЖИ қауіп ландшафтына айтарлықтай өзгерістер енгізбейді. Жоғарыда аталған үрдістерге қарамастан, «Касперский зертханасының» сарапшылары ЖИ жақын арада қауіп ландшафтын айтарлықтай өзгертетініне әлі де күмәнмен қарайды. Зиянкестер генеративті ЖИ-ті қолданғанымен, бағдарламалық жасақтама мен желілердің қауіпсіздігін тексеру үшін сол немесе одан да жетілдірілген құралдарды қолданатын киберқауіпсіздік мамандары да солай жасайды, сондықтан қауіп-қатер ландшафты түбегейлі өзгеруі екіталай.
- ЖИ дамуымен қандай мамандықтар жойылып кету қаупі бар? Ал қайсысы қалады? Мысалдар келтіріп өтсеңіз.
– Ең алдымен, бұл мәтіндер мен кескіндерді жасауға және өңдеуге байланысты қайталанатын интеллектуалды жұмыс туралы мамандықтар. Мысалы, веб-сайттарға мәтіндерді қайта жазумен айналысатын копирайтерлер. Жаңалықтар мәтіндерін жазуды автоматтандыруға болады, әсіресе сандық ақпарат негізінде (мысалы, биржалық есептер), сонымен қатар көптеген басылымдар тірі суретшілерден иллюстрацияларға аз тапсырыс бере бастайды, бұл нейрондық желіге артықшылық береді. Техникалық қолдау сияқты саланы автоматтандыру өте белсенді, мұнда қызметкерлер өте ұқсас сұрақтарға шаблондық жауаптармен жауап беруге мәжбүр. Сонымен қатар, адамдармен өзара әрекеттесуге байланысты кез-келген күрделі тапсырмаларды автоматтандыру қиынырақ: Робот-тәрбиеші тірі мұғалімді толықтыра алады, бірақ әрең ауыстыра алады. Шешімдердің адамдарға әсер ететін салдары болған жағдайда, автоматтандыру қажет емес: бұл, мысалы, сот жүйесі, медицина, басқару саласы. Сонымен, түбегейлі жаңасын құруды қажет ететін кез — келген міндеттер, мұнда заттарға түпнұсқа көзқарас қажет - алгоритмдер, олар оқытылған деректерді ғана өңдей алады, олар күрделі және шығармашылық қызметпен айналысатын адамдарды алмастыра алмайды.