Մայիս, 2024
April 2024
M T W T F S S
1234567
891011121314
15161718192021
22232425262728
2930  
«Կասպերսկի»-ն պարզել է, թե կիբեռհանցագործներն ինչ փորձեր են անում արհեստական բանականության հետ
06/02/2024 16:28

«Կասպերսկի»-ն պարզել է, թե կիբեռհանցագործներն ինչ փորձեր են անում արհեստական բանականության հետ

Kaspersky Digital Footprint Intelligence թիմը ներկայացրել է «Նորարարություններ ստվերում. չարագործներն ինչ փորձեր են անում ԱԲ-ի հետ» հաշվետվությունը, որում մասնագետները վերլուծել են դարկնետի հաղորդագրությունները չարագործների կողմից ChatGPT-ի և մեծ լեզվական մոդելների հիման վրա այլ նմանատիպ լուծումների օգտագործման թեմայով: «Կասպերսկի» ընկերությունը հայտնում է, որ ընդհանուր առմամբ 2023-ին ստվերային ֆորումներում և մասնագիտացված Telegram ալիքներում հայտնաբերվել է 2890 գրառում՝ նեյրոցանցերի հիման վրա չաթ-բոտերի քննարկմամբ: Գագաթնակետը գրանցվել է ապրիլին. այդ ամիս փորձագետները գրանցել են 509 հաղորդագրություն: Փորձագետները բազմաթիվ քննարկումները բաժանել են մի քանի ուղղությունների։

Ջեյլբրեյքեր։ Որպեսզի լեզվական մոդելը կարողանա տալ անօրինական գործունեության հետ կապված պատասխաններ, չարագործներն օգտագործում են հատուկ հրամանների լրակազմեր: Նրանք կարողանում են բացել ChatGPT-ի և նմանատիպ ծառայությունների լրացուցիչ ֆունկցիոնալությունը: Նման լրակազմերը կոչվում են ջեյլբրեյքեր: 2023-ին «Կասպերսկի» ընկերության փորձագետները նման հրամանների տարածման և վաճառքի 249 առաջարկ են հայտնաբերել։ Ընդ որում, հարկ է նշել, որ ջեյլբրեյքերը կարող են օգտագործվել նաև լեզվական մոդելների հիման վրա ծառայությունների աշխատանքի լեգիտիմ բարելավման համար։

Վնասաբեր ԾԱ։ Ստվերային ֆորումների մասնակիցները ակտիվորեն փոխանակվել են վնասաբեր ծրագրերի կատարելագործման և ընդհանրապես կիբեռհարձակումների արդյունավետության բարձրացման համար լեզվական մոդելների օգտագործման տարբերակներով։ Օրինակ՝ փորձագետները հայտնաբերել են հաղորդագրություն, որտեղ խոսվում էր վնասաբեր ծրագրերի օպերատորների ԾԱ-ի մասին, որը նեյրոցանցեր էր օգտագործում օպերատորի անվտանգությունն ապահովելու և օգտագործվող թաքցնող դոմեններն ավտոմատ կերպով փոփոխելու համար: Մեկ այլ քննարկման շրջանակներում գրառումների հեղինակները ChatGPT-ն առաջարկել են պոլիմորֆ վնասաբեր կոդ գեներացնելու համար, որը հայտնաբերելը և վերլուծելը չափազանց դժվար է:

Open Source և պենթեստի (ներթափանցման թեստ) ծրագրեր։ Մեծ լեզվական մոդելների հիման վրա լուծումները ԾԱ մշակողների կողմից ստեղծվում են բաց սկզբնական կոդով, ներառյալ՝ խոսքը կարող է լինել տեղեկատվական անվտանգության մասնագետների համար նախատեսված ծրագրերի մասին։ Սակայն չարագործները նույնպես ուշադրություն են դարձնում նման նախագծերին։ Օրինակ՝ համացանցում ազատորեն հասանելի է գեներատիվ մոդելի վրա հիմնված բաց սկզբնական կոդով հատուկ ծրագիր, որը նախատեսված է կոդի օբֆուսկացման (խճճելու)  համար։ Օբֆուսկացիան թույլ է տալիս խուսափել մոնիտորինգի համակարգերի և պաշտպանական լուծումների հայտնաբերումից: Նման ծրագրեր կարող են օգտագործել ինչպես պենթեստերները, այնպես էլ չարագործները: «Կասպերսկի»-ի մասնագետները դարկնետում հայտնաբերել են մի գրառում, որտեղ հեղինակները տրամադրում են այդ  ծրագիրը և պատմում, թե ինչպես կարելի է այն օգտագործել վնասաբեր նպատակներով:

ChatGPT-ի «չար» նմանակները: Խելացի չաթ-բոտերի ժողովրդականության ֆոնին մեծ հետաքրքրություն են առաջացրել նաև այլ նախագծեր՝ WormGPT-ն, XXXGPT-ն, FraudGPT-ն: Սրանք լեզվական մոդելներ են, որոնք դիրքավորվում են որպես ChatGPT-ի այլընտրանք՝ լրացուցիչ ֆունկցիոնալությամբ և հանված սահմանափակումներով: Թեև լուծումների մեծ մասը կարող է իրավաչափ օգտագործվել, նաև չարագործները կարող են դիմել դրանց, օրինակ՝ վնասաբեր ԾԱ գրելու համար։ Այնուամենայնիվ, նման առաջարկների նկատմամբ մեծ ուշադրությունը միշտ չէ, որ ձեռնտու է դրանց ստեղծողներին: Այսպես, WormGPT-ն փակվել է 2023-ի օգոստոսին՝ զանգվածային մտավախությունների պատճառով, որ այն կարող է սպառնալիք ներկայացնել։ Ի լրումն, «Կասպերսկի»-ի մասնագետների կողմից հայտնաբերված շատ կայքեր և հայտարարություններ, որտեղ առաջարկվում էր ձեռք բերել հասանելիություն WormGPT-ին, ըստ էության, սկամ էին: Հետաքրքական է, որ նման առաջարկների մեծ քանակությունը նախագծի հեղինակներին ստիպել է դեռ փակվելուց առաջ զգուշացնել խաբեության հնարավորության մասին։

«Մտավախություն կա, որ մեծ լեզվական մոդելների զարգացումը թույլ է տալիս չարագործներին պարզեցնել իրենց գործունեությունը և միևնույն ժամանակ նվազեցնում է ոլորտ նրանց մուտքի շեմը: Սակայն, այս պահին մենք չենք տեսնում իրական միջադեպեր, որոնց շրջանակներում օգտագործվել են նման լուծումներ։ Այնուամենայնիվ, տեխնոլոգիաները զարգանում են սրընթաց տեմպերով, և շատ հավանական է, որ շուտով լեզվական մոդելների հնարավորությունները թույլ կտան իրականացնել բարդ գրոհներ, ուստի կարևոր է ուշադիր հետևել այս ոլորտին»,- մեկնաբանում է Kaspersky Digital Footprint Intelligence-ի վերլուծաբան Ալիսա Կուլիշենկոն: