Соңғы жылда жасанды интеллекттің дамуы айтарлықтай жеделдеп, киберқауіпсіздік мамандары мен қарапайым Интернет пайдаланушылары арасында кең талқылау тудырды. Мамандар жасанды интеллектті киберқауіпсіздікті арттыру үшін қолданса, зиянкестер технологияны өз мақсаттарында қолданады. Биылғы жылы алаяқтықтың, әлеуметтік инженерия схемаларының, есептік жазбаларға қатысты алаяқтықтың, жалған ақпарат тарату кампанияларының және де басқа қатерлердің көбеюі күтілуде.
Жасанды интеллектті пайдалануға қызығушылықтың артуына байланысты ESET мамандары зиянкестер қолданатын негізгі схемалардың тізімін ұсынды, сондай-ақ ЖИ-ті пайдаланудың артықшылықтары мен құпиялыққа төнетін қауіптердің мүмкіндіктері туралы айтты.

Зиянкестер ЖИ технологияларын қалай қолданады?
Қазірдің өзінде жасанды интеллект әртүрлі үлгідегі қауіптерде қолданылады, ал кибершабуылдардың саны жыл сайын артып келеді. Генеративті ЖИ көмегімен зиянкестер жергілікті тілде айтарлықтай иланымды мәтіндер жасап, әлеуметтік инженерия мәнмәтінінде ең қауіпті қатер болып табылады. Зиянкестердің жасанды интеллектті пайдалануындағы ең кең тараған басқа схемаларының қатарында:
• Аутентификацияны айналып өту: дипфейк-технологиясы алаяқтарға селфи мен бейне негізіндегі тексерулер кезінде өздерін басқа пайдаланушы ретінде көрсету арқылы жаңа есептік жазбаларды тіркеуге және оларға қол жеткізуге көмектеседі.
• Корпоративтік электронды поштаны бұзу: жасанды интеллект арқылы алаяқтар құрбандарды алдап, қаражатты өз бақылауындағы есептік жазбаға аударуға мәжбүр етеді. Сондай-ақ телефон қоңыраулары мен онлайн кездесулер барысында бас директорлар мен басқа да басшылар бейнесіне ену үшін аудио мен бейне дипфейктері қолданылуы мүмкін.
• Өзгенің атын жамылып жасалатын алаяқтық: үлкен тілдік модельдер (LLM) негізінде жасалған бағдарламалар алаяқтарға жаңа мүмкіндіктер ашады. Әлеуметтік желілердегі бұзылған немесе көпшілікке қолжетімді есептік жазбалардан алынған деректердің көмегімен алаяқтар виртуалды ұрлық және басқа да алаяқтық әрекеттерде достар мен жақындарды алдау үшін өздерін құрбан ретінде көрсетулері мүмкін.
• Беделді тұлғалармен алаяқтық: 2025 жылы алаяқтардың ЖИ технологияларын атақты адамдардың, ықпалды тұлғалардың және басқа да танымал адамдардың әлеуметтік желідегі есептік жазбаларының жасанды немесе көшірме түрін жасау үшін қолдануы күтілуде. Әсіресе, зиянкестер жазылушыларды жеке ақпараттары мен ақшаларын бөлісуге тарту үшін дипфейк-бейне жариялаулары мүмкін.
• Жалған ақпарат тарату: киберқылмыскерлер жасанды интеллектті жалған контент жасау үшін қолданып, сенгіш әлеуметтік желі пайдаланушыларын жалған есептік жазбаларға тіркелуге алдап әкелуі мүмкін. Келесіде бұл пайдаланушылар зиянкестердің басқа операцияларының құралы болып кетуі мүмкін.
• Құпиясөздерді бұзу: жасанды интеллекттің негізіндегі құралдар санаулы секундтар ішінде корпоративтік желілер мен деректерге, сондай-ақ пайдаланушылар есептік жазбаларына қол жеткізу үшін есептік деректер туралы ақпарат алуға қабілетті болып келеді.
Құпиялыққа қандай қауіптер бар
Жасанды интеллект киберқылмыскерлердің шабуыл жасау құралы ретінде пайдалануынан бөлек, ол сондай-ақ деректердің таралу қаупін арттыруы мүмкін. Үлкен тілдік модельдер негізіндегі бағдарламалар оларды оқыту үшін үлкен көлемді мәтін, суреттер мен бейнелерді талап етеді. Көбінесе кездейсоқ кейбір деректер құпиялы болады: биометрия, медициналық немесе қаржылық ақпараттар. Кейбір әлеуметтік желілер мен басқа да компаниялар модельдерді оқыту мақсатында пайдаланушылардың деректерін пайдалану үшін, қызмет көрсету шарттарын өзгертуі мүмкін.
Жасанды интеллект моделінің ақпаратын өңдеу жүйені бұзу ықтималдығы немесе оны LLM негізінде жұмыс істейтін бағдарламалар арқылы басқа адамдарға жіберу мүмкіндігіне байланысты пайдаланушы үшін қауіпті болып табылады. Атап айтқанда, корпоративті пайдаланушылар жасанды интеллект кеңестері арқылы абайсыздан жұмысқа қатысты құпиялық ақпаратпен бөлісуі мүмкін. Сауалнама нәтижелеріне сәйкес, британиялық компаниялардың бестен бірі қызметкерлерінің ЖИ технологияларын қолдануы салдарынан құпия болуы мүмкін деректерді кездейсоқ ашып қойған.
Жасанды интеллекттің артықшылығы неде
Биылғы жыл бойы жасанды интеллект жаңа өнімдер мен қызметтерге енгізілгендіктен, киберқауіпсіздік командаларының жұмысында бұрынғыдан да маңызды рөл атқаратын болады. Көбінесе бұл:
• пайдаланушыларды, қауіпсіздік топтарын және ЖИ негізіндегі қауіпсіздік құралдарын оқыту үшін деректерді генерациялауға;
• ұзын және күрделі қауіп-қатер туралы есептерді сарапшылар үшін жинақтап, оқиғаларға қатысты жылдам шешім қабылдауға ықпал етуге;
• жұмыс процесстерін тергеу және түзету үшін автоматтандыру арқылы қауіпсіздік мамандарының өнімділігін арттыруға;
• үлкен көлемдегі деректерді күмәнді әрекет белгілеріне тексеруге;
• бұрыс баптаулардың ықтималдылығын азайту үшін, әртүрлі өнімдерге енгізілген «екінші пилот» функциясы арқылы АТ-командаларының біліктілігін өсіруге көмектеседі.
Алайда IT саласындағы мамандар жасанды интеллектті шектелуін, шешімдер қабылдау процессінде адам тәжірибесінің маңыздылығын түсінуі керек. 2025 жылы қателіктер қауіптерін, сондай-ақ әлеуетті келеңсіз зардаптарды төмендету үшін адам ресурстарымен машиналық жұмыс арасында теңгерім болғаны маңызды. ЖИ технологияларын оңтайлы нәтижелерге жеткізу үшін басқа құралдар мен техникаларды қоса қолдану керек.
2025 жылы жасанды интеллект технологиялармен өзара әрекеттесуді түбегейлі өзгертеді. ЖИ негізіндегі құралдарды пайдалану кәсіпорындар мен жеке пайдаланушылар үшін үлкен әлеуетті пайдасы бар, алайда сонымен қатар меңгеруді қажет ететін жаңа қауіп-қатерлер тудырады. Сондықтан мемлекет кәсіпорын мен пайдаланушылар жасанды интеллекттің әлеуетін тиімді пайдалану үшін бірлесе әрекет етіп, бір мезгілде қауіп-қатерлерді азайтуға күш салуы керек.