Эксперт па кібербяспецы аналізуе пагрозы з выкарыстаннем генератыўных інструментаў штучнага інтэлекту.

Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы?

Уводзіны

Генератыўны штучны інтэлект — сістэмы штучнага інтэлекту, здольныя ствараць новы кантэнт або прагнозы, — становіцца трансфармацыйнай сілай у кібербяспецы. Такія інструменты, як GPT-4 ад OpenAI, прадэманстравалі здольнасць аналізаваць складаныя даныя і генераваць тэкст, падобны на чалавечы, што дазваляе выкарыстоўваць новыя падыходы да абароны ад кіберпагроз. Спецыялісты па кібербяспецы і асобы, якія прымаюць бізнес-рашэнні ў розных галінах, даследуюць, як генератыўны штучны інтэлект можа ўзмацніць абарону ад новых нападаў. Ад фінансаў і аховы здароўя да рознічнага гандлю і ўрада — арганізацыі ва ўсіх сектарах сутыкаюцца са складанымі спробамі фішынгу, шкоднаснымі праграмамі і іншымі пагрозамі, з якімі можа дапамагчы супрацьстаяць генератыўны штучны інтэлект. У гэтым дакуменце мы разглядаем, як генератыўны штучны інтэлект можа быць выкарыстаны ў кібербяспецы , падкрэсліваючы рэальныя прымяненні, будучыя магчымасці і важныя меркаванні для ўкаранення.

Генератыўны штучны інтэлект адрозніваецца ад традыцыйнага аналітычнага тым, што ён не толькі выяўляе заканамернасці, але і стварае кантэнт — няхай гэта будзе мадэляванне атак для трэніроўкі абароны або стварэнне тлумачэнняў на натуральнай мове для складаных дадзеных бяспекі. Гэтая падвойная здольнасць робіць яго палкай з двума канцамі: ён прапануе магутныя новыя абарончыя інструменты, але зламыснікі таксама могуць ім карыстацца. У наступных раздзелах разглядаецца шырокі спектр выпадкаў выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы, ад аўтаматызацыі выяўлення фішынгу да паляпшэння рэагавання на інцыдэнты. Мы таксама абмяркоўваем перавагі, якія абяцаюць гэтыя інавацыі ў галіне штучнага інтэлекту, а таксама рызыкі (напрыклад, «галюцынацыі» штучнага інтэлекту або злоўжыванне з боку супернікаў), якімі арганізацыі павінны кіраваць. Нарэшце, мы прапануем практычныя высновы, якія дапамогуць прадпрыемствам ацаніць і адказна інтэграваць генератыўны штучны інтэлект у свае стратэгіі кібербяспекі.

Генератыўны штучны інтэлект у кібербяспецы: агляд

Генератыўны штучны інтэлект у кібербяспецы адносіцца да мадэляў штучнага інтэлекту — часта мадэляў на вялікіх мовах праграмавання або іншых нейронных сетак, — якія могуць генерыраваць аналітычныя дадзеныя, рэкамендацыі, код або нават сінтэтычныя дадзеныя для дапамогі ў задачах бяспекі. У адрозненне ад чыста прагназуючых мадэляў, генератыўны штучны інтэлект можа мадэляваць сцэнарыі і ствараць чытэльныя для чалавека вынікі (напрыклад, справаздачы, абвесткі або нават узоры шкоднаснага кода) на аснове сваіх навучальных дадзеных. Гэтая магчымасць выкарыстоўваецца для прагназавання, выяўлення і рэагавання на пагрозы больш дынамічным чынам, чым раней ( Што такое генератыўны штучны інтэлект у кібербяспецы? - Palo Alto Networks ). Напрыклад, генератыўныя мадэлі могуць аналізаваць велізарныя журналы або сховішчы інфармацыі аб пагрозах і ствараць кароткі змест або рэкамендаваныя дзеянні, функцыянуючы амаль як «памочнік» штучнага інтэлекту для каманд бяспекі.

Раннія рэалізацыі генератыўнага штучнага інтэлекту для кіберабароны паказалі сябе перспектыўнымі. У 2023 годзе Microsoft прадставіла Security Copilot , памочніка для аналітыкаў бяспекі на базе GPT-4, які дапамагае выяўляць парушэнні і прасейваць 65 трыльёнаў сігналаў, якія Microsoft апрацоўвае штодня ( Microsoft Security Copilot — гэта новы памочнік штучнага інтэлекту на базе GPT-4 для кібербяспекі | The Verge ). Аналітыкі могуць кіраваць гэтай сістэмай натуральнай мовай (напрыклад, «Падсумаваць усе інцыдэнты бяспекі за апошнія 24 гадзіны» ), і Copilot створыць карыснае апавядальнае рэзюмэ. Падобным чынам, штучны інтэлект для разведкі пагроз выкарыстоўвае генератыўную мадэль пад назвай Gemini , каб забяспечыць размоўнае пошук у шырокай базе дадзеных разведкі аб пагрозах Google, хутка аналізуючы падазроны код і падсумоўваючы вынікі, каб дапамагчы паляўнічым за шкоднаснымі праграмамі ( Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы? 10 рэальных прыкладаў ). Гэтыя прыклады ілюструюць патэнцыял: генератыўны штучны інтэлект можа апрацоўваць складаныя, маштабныя дадзеныя па кібербяспецы і прадстаўляць інфармацыю ў даступнай форме, паскараючы прыняцце рашэнняў.

Адначасова генератыўны штучны інтэлект можа ствараць вельмі рэалістычны фальшывы кантэнт, што з'яўляецца значным падарункам для мадэлявання і навучання (і, на жаль, для зламыснікаў, якія выкарыстоўваюць сацыяльную інжынерыю). Па меры разгляду канкрэтных выпадкаў выкарыстання мы ўбачым, што здольнасць генератыўнага штучнага інтэлекту як сінтэзаваць , так і аналізаваць інфармацыю ляжыць у аснове яго шматлікіх прыкладанняў у галіне кібербяспекі. Ніжэй мы паглыбімся ў ключавыя выпадкі выкарыстання, якія ахопліваюць усё: ад прадухілення фішынгу да бяспечнай распрацоўкі праграмнага забеспячэння, з прыкладамі таго, як кожны з іх ужываецца ў розных галінах.

Асноўныя сферы прымянення генератыўнага штучнага інтэлекту ў кібербяспецы

Малюнак: Асноўныя прыклады выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы ўключаюць штучны інтэлект, які дапамагае камандам бяспекі, аналіз уразлівасцяў кода, адаптыўнае выяўленне пагроз, мадэляванне атак нулявога дня, палепшаную біяметрычную бяспеку і выяўленне фішынгу ( 6 прыкладаў выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы [+ прыклады] ).

Выяўленне і прадухіленне фішынгу

Фішынг застаецца адной з найбольш распаўсюджаных кіберпагроз, падманваючы карыстальнікаў, каб яны націскалі на шкоднасныя спасылкі або раскрывалі ўліковыя дадзеныя. Генератыўны штучны інтэлект выкарыстоўваецца як для выяўлення спроб фішынгу , так і для паляпшэння навучання карыстальнікаў для прадухілення паспяховых атак. З абарончага боку, мадэлі штучнага інтэлекту могуць аналізаваць змест электроннай пошты і паводзіны адпраўніка, каб выяўляць тонкія прыкметы фішынгу, якія могуць прапусціць фільтры на аснове правілаў. Навучаючыся на вялікіх наборах дадзеных законных і махлярскіх лістоў, генератыўная мадэль можа пазначаць анамаліі ў тоне, фармулёўках або кантэксце, якія сведчаць аб махлярстве, нават калі граматыка і правапіс больш не выдаюць гэтага. Фактычна, даследчыкі Palo Alto Networks адзначаюць, што генератыўны штучны інтэлект можа вызначаць «тонкія прыкметы фішынгавых лістоў, якія ў адваротным выпадку маглі б застацца незаўважанымі», дапамагаючы арганізацыям заставацца на крок наперадзе махляроў ( Што такое генератыўны штучны інтэлект у кібербяспецы? - Palo Alto Networks ).

Каманды бяспекі таксама выкарыстоўваюць генератыўны штучны інтэлект для мадэлявання фішынгавых атак з мэтай навучання і аналізу. Напрыклад, Ironscales прадставіла інструмент мадэлявання фішынгу на базе GPT, які аўтаматычна генеруе падробленыя фішынгавыя электронныя лісты, адаптаваныя да супрацоўнікаў арганізацыі ( Як генератыўны штучны інтэлект можа выкарыстоўвацца ў кібербяспецы? 10 рэальных прыкладаў ). Гэтыя электронныя лісты, створаныя з дапамогай штучнага інтэлекту, адлюстроўваюць найноўшыя тактыкі зламыснікаў, даючы супрацоўнікам рэалістычную практыку ў выяўленні фішынгавага кантэнту. Такое персаналізаванае навучанне мае вырашальнае значэнне, паколькі самі зламыснікі выкарыстоўваюць штучны інтэлект для стварэння больш пераканаўчых прынад. Варта адзначыць, што, хоць генератыўны штучны інтэлект можа ствараць вельмі адшліфаваныя фішынгавыя паведамленні (прайшлі часы лёгка выяўляльнай ламанай англійскай мовы), абаронцы выявілі, што штучны інтэлект не з'яўляецца непераможным. У 2024 годзе даследчыкі IBM Security правялі эксперымент, у якім параўноўвалі фішынгавыя электронныя лісты, напісаныя чалавекам, з электроннымі лістамі, згенераванымі штучным інтэлектам, і «дзіўна, што электронныя лісты, згенераваныя штучным інтэлектам, усё яшчэ было лёгка выявіць, нягледзячы на ​​іх правільную граматыку» ( 6 выпадкаў выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы [+ прыклады] ). Гэта сведчыць аб тым, што чалавечая інтуіцыя ў спалучэнні з выяўленнем з дапамогай штучнага інтэлекту ўсё яшчэ можа распазнаваць тонкія неадпаведнасці або сігналы метададзеных у махлярстве, напісаным з дапамогай штучнага інтэлекту.

Генератыўны штучны інтэлект дапамагае ў абароне ад фішынгу і іншымі спосабамі. Мадэлі можна выкарыстоўваць для стварэння аўтаматызаваных адказаў або фільтраў , якія правяраюць падазроныя электронныя лісты. Напрыклад, сістэма штучнага інтэлекту можа адказаць на электронны ліст з пэўнымі запытамі, каб праверыць легітымнасць адпраўніка, або выкарыстоўваць LLM для аналізу спасылак і ўкладанняў у электронным лісце ў пясочніцы, а затым абагульніць любыя шкоднасныя намеры. Платформа бяспекі NVIDIA Morpheus дэманструе моц штучнага інтэлекту ў гэтай галіне — яна выкарыстоўвае генератыўныя мадэлі NLP для хуткага аналізу і класіфікацыі электронных лістоў, і было ўстаноўлена, што яна паляпшае выяўленне фішынгавых лістоў на 21% у параўнанні з традыцыйнымі інструментамі бяспекі ( 6 выпадкаў выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы [+ прыклады] ). Morpheus нават прафілюе шаблоны камунікацыі карыстальнікаў, каб выявіць незвычайную паводзіны (напрыклад, карыстальнік раптоўна адпраўляе электронныя лісты на мноства знешніх адрасоў), што можа сведчыць аб тым, што ўзламаны ўліковы запіс рассылае фішынгавыя лісты.

На практыцы кампаніі ў розных галінах пачынаюць давяраць штучнаму інтэлекту (ШІ) для фільтрацыі электроннай пошты і вэб-трафіку на прадмет нападаў сацыяльнай інжынерыі. Напрыклад, фінансавыя фірмы выкарыстоўваюць генератыўны ШІ для сканавання камунікацый на прадмет спроб выдавання сябе за іншую асобу, якія могуць прывесці да махлярства праз электронныя рахункі, а медыцынскія работнікі ўкараняюць ШІ для абароны дадзеных пацыентаў ад парушэнняў, звязаных з фішынгам. Генеруючы рэалістычныя сцэнарыі фішынгу і вызначаючы прыкметы шкоднасных паведамленняў, генератыўны ШІ дадае магутны пласт да стратэгій прадухілення фішынгу. Выснова: ШІ можа дапамагчы выяўляць і абяззбройваць фішынгавыя атакі хутчэй і дакладней, нават калі зламыснікі выкарыстоўваюць тую ж тэхналогію для паляпшэння сваёй гульні.

Выяўленне шкоднасных праграм і аналіз пагроз

Сучаснае шкоднаснае праграмнае забеспячэнне пастаянна развіваецца — зламыснікі ствараюць новыя варыянты або абфускуюць код, каб абыйсці антывірусныя сігнатуры. Генератыўны штучны інтэлект прапануе новыя метады як для выяўлення шкоднаснага праграмнага забеспячэння, так і для разумення яго паводзін. Адзін з падыходаў — выкарыстанне штучнага інтэлекту для стварэння «злых двайнікоў» шкоднаснага праграмнага забеспячэння : даследчыкі ў галіне бяспекі могуць увесці вядомы ўзор шкоднаснага праграмнага забеспячэння ў генератыўную мадэль, каб стварыць мноства мутаваных варыянтаў гэтага шкоднаснага праграмнага забеспячэння. Робячы гэта, яны эфектыўна прадбачаць змены, якія можа зрабіць зламыснік. Гэтыя варыянты, згенераваныя штучным інтэлектам, затым могуць быць выкарыстаны для навучання антывірусных сістэм і сістэм выяўлення ўварванняў, каб нават мадыфікаваныя версіі шкоднаснага праграмнага забеспячэння распазнаваліся ў рэальных умовах ( 6 выпадкаў выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы [+ прыклады] ). Гэтая праактыўная стратэгія дапамагае разарваць цыкл, калі хакеры нязначна змяняюць сваё шкоднаснае праграмнае забеспячэнне, каб пазбегнуць выяўлення, і абаронцам даводзіцца кожны раз спрабаваць пісаць новыя сігнатуры. Як адзначалася ў адным галіновым падкасце, эксперты па бяспецы цяпер выкарыстоўваюць генератыўны штучны інтэлект для «імітацыі сеткавага трафіку і стварэння шкоднасных карысных нагрузак, якія імітуюць складаныя атакі», тэстуючы сваю абарону на цэлае сямейства пагроз, а не на адзін асобнік. Гэта адаптыўнае выяўленне пагроз азначае, што інструменты бяспекі становяцца больш устойлівымі да поліморфнага шкоднаснага праграмнага забеспячэння, якое ў адваротным выпадку праслізнула б.

Акрамя выяўлення, генератыўны штучны інтэлект дапамагае ў аналізе шкоднасных праграм і зваротным інжынірынгу , якія традыцыйна з'яўляюцца працаёмкімі задачамі для аналітыкаў пагроз. Мадэлям з вялікімі мовамі можна даручыць вывучэнне падазронага кода або скрыптоў і тлумачэнне простай мовай таго, што павінен рабіць гэты код. Прыкладам з рэальнага свету з'яўляецца VirusTotal Code Insight , функцыя VirusTotal ад Google, якая выкарыстоўвае мадэль генератыўнага штучнага інтэлекту (Sec-PaLM ад Google) для стварэння рэзюмэ патэнцыйна шкоднаснага кода на натуральнай мове ( Як генератыўны штучны інтэлект можа выкарыстоўвацца ў кібербяспецы? 10 рэальных прыкладаў ). Па сутнасці, гэта «тып ChatGPT, прызначаны для кадавання бяспекі», які выступае ў якасці аналітыка шкоднасных праграм на аснове штучнага інтэлекту, які працуе 24/7, каб дапамагчы аналітыкам-людзям зразумець пагрозы ( 6 выпадкаў выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы [+ прыклады] ). Замест таго, каб уважліва вывучаць незнаёмы скрыпт або двайковы код, супрацоўнік каманды бяспекі можа атрымаць неадкладнае тлумачэнне ад штучнага інтэлекту — напрыклад, «Гэты скрыпт спрабуе загрузіць файл з сервера XYZ, а затым змяніць налады сістэмы, што сведчыць аб паводзінах шкоднаснага праграмнага забеспячэння». Гэта значна паскарае рэагаванне на інцыдэнты, бо аналітыкі могуць праводзіць трыяды і разумець новыя шкоднасныя праграмы хутчэй, чым калі-небудзь.

Генератыўны штучны інтэлект таксама выкарыстоўваецца для выяўлення шкоднасных праграм у велізарных наборах даных . Традыцыйныя антывірусныя сістэмы скануюць файлы на наяўнасць вядомых сігнатур, але генератыўная мадэль можа ацаніць характарыстыкі файла і нават прадказаць, ці з'яўляецца ён шкоднасным, на аснове вывучаных заканамернасцей. Аналізуючы атрыбуты мільярдаў файлаў (шкоднасных і дабраякасных), штучны інтэлект можа выявіць шкоднасныя намеры там, дзе відавочнай сігнатуры не існуе. Напрыклад, генератыўная мадэль можа пазначыць выканальны файл як падазроны, таму што яго профіль паводзін «выглядае» як невялікая варыяцыя праграмы-вымагальніка, якую ён бачыў падчас навучання, нават калі двайковы файл новы. Гэта выяўленне на аснове паводзін дапамагае супрацьстаяць новым або шкоднасным праграмам нулявога дня. Паведамляецца, што штучны інтэлект Google Threat Intelligence (частка Chronicle/Mandiant) выкарыстоўвае сваю генератыўную мадэль для аналізу патэнцыйна шкоднаснага кода і «больш эфектыўнай дапамогі спецыялістам па бяспецы ў барацьбе са шкоднаснымі праграмамі і іншымі тыпамі пагроз». ( Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы? 10 рэальных прыкладаў ).

З іншага боку, мы павінны прызнаць, што зламыснікі могуць выкарыстоўваць генератыўны штучны інтэлект і тут — для аўтаматычнага стварэння шкоднасных праграм, якія адаптуюцца. Фактычна, эксперты па бяспецы папярэджваюць, што генератыўны штучны інтэлект можа дапамагчы кіберзлачынцам распрацоўваць шкоднасныя праграмы , якія цяжэй выявіць ( Што такое генератыўны штучны інтэлект у кібербяспецы? - Palo Alto Networks ). Мадэлі штучнага інтэлекту можна даць указанне неаднаразова змяняць фрагмент шкоднаснага праграмнага забеспячэння (змяняючы яго структуру файлаў, метады шыфравання і г.д.), пакуль ён не ўхіліцца ад усіх вядомых антывірусных праверак. Такое выкарыстанне выклікае ўсё большую заклапочанасць (часам яго называюць «шкоднасным праграмным забеспячэннем на базе штучнага інтэлекту» або поліморфным шкоднасным праграмным забеспячэннем як паслугай). Мы абмяркуем такія рызыкі пазней, але гэта падкрэслівае, што генератыўны штучны інтэлект — гэта інструмент у гэтай гульні ў кошкі-мышкі, які выкарыстоўваецца як абаронцамі, так і зламыснікамі.

У цэлым, генератыўны штучны інтэлект паляпшае абарону ад шкоднасных праграм, дазваляючы камандам бяспекі думаць як зламыснік — ствараючы новыя пагрозы і рашэнні самастойна. Незалежна ад таго, ці гэта стварэнне сінтэтычнага шкоднаснага праграмнага забеспячэння для павышэння ўзроўню выяўлення, ці выкарыстанне штучнага інтэлекту для тлумачэння і стрымлівання рэальнага шкоднаснага праграмнага забеспячэння, знойдзенага ў сетках, гэтыя метады прымяняюцца ва ўсіх галінах. Банк можа выкарыстоўваць аналіз шкоднасных праграм на аснове штучнага інтэлекту для хуткага аналізу падазронага макраса ў электроннай табліцы, у той час як вытворчая фірма можа спадзявацца на штучны інтэлект для выяўлення шкоднасных праграм, накіраваных на прамысловыя сістэмы кіравання. Дапаўняючы традыцыйны аналіз шкоднасных праграм генератыўным штучным інтэлектам, арганізацыі могуць рэагаваць на кампаніі шкоднасных праграм хутчэй і больш праактыўна, чым раней.

Разведка пагроз і аўтаматызацыя аналізу

Кожны дзень арганізацыі сутыкаюцца з вялікай колькасцю дадзеных аб пагрозах — ад новых індыкатараў кампраметацыі да справаздач аналітыкаў аб новых тактыках хакераў. Задача каманд бяспекі — прасейваць гэты паток інфармацыі і здабываць з яго практычныя высновы. Генератыўны штучны інтэлект аказваецца неацэнным у аўтаматызацыі аналізу і выкарыстання інфармацыі аб пагрозах . Замест таго, каб уручную чытаць дзясяткі справаздач або запісаў у базе дадзеных, аналітыкі могуць выкарыстоўваць штучны інтэлект для абагульнення і кантэкстуалізацыі інфармацыі аб пагрозах з хуткасцю машыны.

Адным з канкрэтных прыкладаў з'яўляецца Threat Intelligence , які інтэгруе генератыўны штучны інтэлект (мадэль Gemini) з базамі дадзеных аб пагрозах ад Mandiant і VirusTotal. Гэты штучны інтэлект забяспечвае «гутарковы пошук па велізарным сховішчы інфармацыі аб пагрозах Google» , дазваляючы карыстальнікам задаваць натуральныя пытанні аб пагрозах і атрымліваць зводныя адказы ( Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы? 10 рэальных прыкладаў ). Напрыклад, аналітык можа спытаць: «Ці бачылі мы якія-небудзь шкоднасныя праграмы, звязаныя з групай пагроз X, накіраваныя на нашу галіну?», і штучны інтэлект атрымае адпаведную інфармацыю, магчыма, адзначыўшы : «Так, група пагроз X была звязана з фішынгавай кампаніяй у мінулым месяцы з выкарыстаннем шкоднаснага праграмнага забеспячэння Y» , а таксама звядзе звесткі аб паводзінах гэтага шкоднаснага праграмнага забеспячэння. Гэта значна скарачае час збору інфармацыі, якая ў адваротным выпадку патрабавала б запытаў да некалькіх інструментаў або чытання доўгіх справаздач.

Генератыўны штучны інтэлект таксама можа суаднесці і абагульніць тэндэнцыі пагроз . Ён можа прагледзець тысячы паведамленняў у блогах па бяспецы, навіны аб парушэннях і чаты ў цёмным вэбе, а затым стварыць рэзюмэ «галоўных кіберпагроз гэтага тыдня» для брыфінгу кіраўніка CISO. Традыцыйна гэты ўзровень аналізу і справаздачнасці патрабаваў значных чалавечых намаганняў; цяпер добра настроеная мадэль можа скласці яго за лічаныя секунды, а людзі толькі ўдасканальваюць вынік. Такія кампаніі, як ZeroFox, распрацавалі FoxGPT , інструмент генератыўнага штучнага інтэлекту, спецыяльна распрацаваны для «паскарэння аналізу і абагульнення разведвальных дадзеных па вялікіх наборах дадзеных», уключаючы шкоднасны кантэнт і дадзеныя фішынгу ( Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы? 10 рэальных прыкладаў ). Аўтаматызуючы цяжкую працу па чытанні і перакрыжаваным спасылцы на дадзеныя, штучны інтэлект дазваляе камандам па разведцы пагроз засяродзіцца на прыняцці рашэнняў і рэагаванні.

Яшчэ адзін выпадак выкарыстання — пошук пагроз у размове . Уявіце, што аналітык па бяспецы ўзаемадзейнічае з памочнікам штучнага інтэлекту: «Пакажыце мне якія-небудзь прыкметы ўцечкі дадзеных за апошнія 48 гадзін» або «Якія новыя ўразлівасці выкарыстоўваюць зламыснікі на гэтым тыдні?» Штучны інтэлект можа інтэрпрэтаваць запыт, шукаць унутраныя журналы або знешнія крыніцы разведданых і адказваць выразным адказам або нават спісам адпаведных інцыдэнтаў. Гэта не так ужо і малаверагодна — сучасныя сістэмы кіравання інфармацыяй і падзеямі бяспекі (SIEM) пачынаюць уключаць запыты на натуральнай мове. Напрыклад, пакет бяспекі QRadar ад IBM у 2024 годзе дадасць генератыўныя функцыі штучнага інтэлекту, каб аналітыкі маглі «задаваць […] канкрэтныя пытанні аб абагульненым шляху атакі» інцыдэнту і атрымліваць падрабязныя адказы. Ён таксама можа «інтэрпрэтаваць і абагульняць вельмі рэлевантную інфармацыю аб пагрозах» ( Як генератыўны штучны інтэлект можа выкарыстоўвацца ў кібербяспецы? 10 рэальных прыкладаў ). Па сутнасці, генератыўны штучны інтэлект ператварае горы тэхнічных дадзеных у аналітычныя матэрыялы памерам з чат па патрабаванні.

Гэта мае вялікія наступствы для розных галін прамысловасці. Медыцынскі работнік можа выкарыстоўваць штучны інтэлект, каб быць у курсе апошніх груп вымагальнікаў, якія нацэльваюцца на бальніцы, не прысвячаючы аналітыка паўнавартасным даследаванням. Дырэктар па ахове працы рознічнага гандлю можа хутка абагульніць новыя тактыкі шкоднасных праграм для POS-тэрміналаў падчас інструктажу ІТ-персаналу крамы. А ва ўрадзе, дзе неабходна сінтэзаваць дадзеныя аб пагрозах ад розных устаноў, штучны інтэлект можа ствараць адзіныя справаздачы, у якіх вылучаюцца ключавыя папярэджанні. Аўтаматызуючы збор і інтэрпрэтацыю разведвальнай інфармацыі аб пагрозах , генератыўны штучны інтэлект дапамагае арганізацыям хутчэй рэагаваць на новыя пагрозы і зніжае рызыку прапусціць крытычныя папярэджанні, схаваныя ў шуме.

Аптымізацыя цэнтра аперацый бяспекі (SOC)

Цэнтры аперацый бяспекі вядомыя сваёй стомленасцю ад папярэджанняў і велізарным аб'ёмам дадзеных. Тыповы аналітык SOC можа штодня прабірацца праз тысячы папярэджанняў і падзей, расследуючы патэнцыйныя інцыдэнты. Генератыўны штучны інтэлект выступае ў якасці памнажальніка сілы ў SOC, аўтаматызуючы руцінную працу, прадастаўляючы інтэлектуальныя зводкі і нават арганізуючы некаторыя меры рэагавання. Мэта складаецца ў тым, каб аптымізаваць працоўныя працэсы SOC, каб аналітыкі-людзі маглі засяродзіцца на найбольш крытычных праблемах, а другі пілот на базе штучнага інтэлекту займаецца астатнім.

Адно з асноўных прымяненняў — выкарыстанне генератыўнага штучнага інтэлекту ў якасці «дапаможніка аналітыка» . Microsoft Security Copilot, пра які гаварылася раней, з'яўляецца прыкладам гэтага: ён «прызначаны для дапамогі аналітыку па бяспецы ў яго працы, а не для яго замены», дапамагаючы ў расследаванні інцыдэнтаў і справаздачнасці ( Microsoft Security Copilot — гэта новы памочнік штучнага інтэлекту GPT-4 для кібербяспекі | The Verge ). На практыцы гэта азначае, што аналітык можа ўводзіць неапрацаваныя дадзеныя — журналы брандмаўэра, храналогію падзей або апісанне інцыдэнту — і прасіць штучны інтэлект прааналізаваць іх або абагульніць. Другі пілот можа вывесці наступнае апавяданне накшталт: «Здаецца, што ў 2:35 раніцы падазроны ўваход з IP-адраса X на сервер Y быў паспяховым, а затым адбылася незвычайная перадача дадзеных, што сведчыць аб патэнцыйным узломе гэтага сервера». Такая неадкладная кантэкстуалізацыя неацэнная, калі час мае вырашальнае значэнне.

Другія пілоты са штучным інтэлектам таксама дапамагаюць паменшыць нагрузку на трыяж першага ўзроўню. Згодна з галіновымі дадзенымі, каманда бяспекі можа траціць 15 гадзін на тыдзень, проста сартуючы каля 22 000 папярэджанняў і ілжыва спрацоўваючых вынікаў ( 6 выпадкаў выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы [+ прыклады] ). З дапамогай генератыўнага штучнага інтэлекту многія з гэтых папярэджанняў могуць быць аўтаматычна класіфікаваны — штучны інтэлект можа адхіляць тыя, якія відавочна бяскрыўдныя (з абгрунтаваннем) і вылучаць тыя, якія сапраўды патрабуюць увагі, часам нават прапаноўваючы прыярытэт. Фактычна, здольнасць генератыўнага штучнага інтэлекту разумець кантэкст азначае, што ён можа ўзаемакарэляваць папярэджанні, якія могуць здавацца бяскрыўднымі паасобку, але разам яны сведчаць аб шматэтапнай атацы. Гэта памяншае верагоднасць прапусціць атаку з-за «стомленасці ад папярэджанняў».

Аналітыкі SOC таксама выкарыстоўваюць натуральную мову са штучным інтэлектам для паскарэння пошуку і расследаванняў. Напрыклад, платформа Purple AI «задаваць складаныя пытанні па пошуку пагроз простай мовай і атрымліваць хуткія і дакладныя адказы» ( Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы? 10 рэальных прыкладаў ). Аналітык можа ўвесці пытанне: «Ці звязваліся якія-небудзь канчатковыя кропкі з даменам badguy123[.]com за апошні месяц?» , і Purple AI будзе праглядаць журналы, каб адказаць. Гэта дазваляе аналітыку пазбавіцца ад неабходнасці пісаць запыты да базы дадзеных або сцэнарыі — штучны інтэлект робіць гэта ўнутры сістэмы. Гэта таксама азначае, што малодшыя аналітыкі могуць выконваць задачы, якія раней патрабавалі вопытнага інжынера, які валодае мовамі запытаў, эфектыўна павышаючы кваліфікацыю каманды дзякуючы дапамозе штучнага інтэлекту . І сапраўды, аналітыкі паведамляюць, што кіраўніцтва генератыўным штучным інтэлектам «павышае іх навыкі і майстэрства» , бо малодшыя супрацоўнікі цяпер могуць атрымліваць падтрымку па кадаванні або парады па аналізе ад штучнага інтэлекту па патрабаванні, што змяншае залежнасць ад пастаянных просьбаў аб дапамозе да старэйшых членаў каманды ( 6 выпадкаў выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы [+ прыклады] ).

Яшчэ адна аптымізацыя SOC — гэта аўтаматызаванае падвядзенне вынікаў і дакументаванне інцыдэнтаў . Пасля апрацоўкі інцыдэнту хтосьці павінен напісаць справаздачу — задача, якую многія лічаць стомнай. Генератыўны штучны інтэлект можа ўзяць дадзеныя экспертызы (сістэмныя журналы, аналіз шкоднасных праграм, храналогію дзеянняў) і стварыць першы варыянт справаздачы аб інцыдэнце. IBM убудоўвае гэтую магчымасць у QRadar, каб «адным пстрычкай мышы» можна было стварыць рэзюмэ інцыдэнту для розных зацікаўленых бакоў (кіраўнікоў, ІТ-каманд і г.д.) ( Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы? 10 рэальных прыкладаў ). Гэта не толькі эканоміць час, але і гарантуе, што ў справаздачы нічога не будзе прапушчана, бо штучны інтэлект можа паслядоўна ўключаць усе неабходныя дэталі. Аналагічна, для адпаведнасці патрабаванням і аўдыту штучны інтэлект можа запаўняць формы або табліцы доказаў на аснове дадзеных аб інцыдэнце.

Рэальныя вынікі пераканаўчыя. Першыя карыстальнікі сістэмы Swimlane SOAR (аркестрацыя бяспекі, аўтаматызацыя і рэагаванне) на аснове штучнага інтэлекту паведамляюць пра велізарны прырост прадукцыйнасці — напрыклад, Global Data Systems убачыла, як іх каманда SecOps справілася са значна большай нагрузкай; адзін дырэктар сказаў: «Тое, што я раблю сёння з 7 аналітыкамі, верагодна, заняло б 20 супрацоўнікаў без» аўтаматызацыі на базе штучнага інтэлекту ( Як генератыўны штучны інтэлект можа быць выкарыстаны ў кібербяспецы ). Іншымі словамі, штучны інтэлект у SOC можа памнажаць магутнасці . У розных галінах, няхай гэта будзе тэхналагічная кампанія, якая займаецца абвесткамі аб бяспецы ў воблаку, ці вытворчы завод, які маніторынгуе сістэмы OT, каманды SOC могуць атрымаць больш хуткае выяўленне і рэагаванне, менш прапушчаных інцыдэнтаў і больш эфектыўныя аперацыі, выкарыстоўваючы генератыўных памочнікаў на аснове штучнага інтэлекту. Гаворка ідзе пра больш разумную працу — дазвол машынам выконваць паўтаральныя і аб'ёмныя задачы, каб людзі маглі прымяняць сваю інтуіцыю і вопыт там, дзе гэта найбольш важна.

Кіраванне ўразлівасцямі і мадэляванне пагроз

Выяўленне і кіраванне ўразлівасцямі — слабымі месцамі ў праграмным забеспячэнні або сістэмах, якімі могуць скарыстацца зламыснікі, — з'яўляецца асноўнай функцыяй кібербяспекі. Генератыўны штучны інтэлект паляпшае кіраванне ўразлівасцямі, паскараючы выяўленне, дапамагаючы ў прыярытэтызацыі патчаў і нават мадэлюючы атакі на гэтыя ўразлівасці для павышэння гатоўнасці. Па сутнасці, штучны інтэлект дапамагае арганізацыям хутчэй знаходзіць і выпраўляць дзіркі ў сваёй абароне, а таксама праактыўна тэстуе абарону, перш чым гэта зробяць сапраўдныя зламыснікі.

Адным з важных прымяненняў з'яўляецца выкарыстанне генератыўнага штучнага інтэлекту для аўтаматызаванага агляду кода і выяўлення ўразлівасцяў . Вялікія базы кода (асабліва састарэлыя сістэмы) часта ўтрымліваюць недахопы бяспекі, якія застаюцца незаўважанымі. Мадэлі генератыўнага штучнага інтэлекту можна навучыць бяспечным практыкам кадавання і распаўсюджаным шаблонам памылак, а затым выкарыстоўваць на зыходным кодзе або скампіляваных бінарных файлах для пошуку патэнцыйных уразлівасцяў. Напрыклад, даследчыкі NVIDIA распрацавалі канвеер генератыўнага штучнага інтэлекту, які можа аналізаваць кантэйнеры састарэлага праграмнага забеспячэння і вызначаць уразлівасці «з высокай дакладнасцю — да 4 разоў хутчэй, чым эксперты-людзі». ( 6 выпадкаў выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы [+ прыклады] ). Штучны інтэлект, па сутнасці, вывучыў, як выглядае небяспечны код, і змог сканаваць праграмнае забеспячэнне, якое выпрацоўваецца дзесяцігоддзямі, каб пазначыць рызыкоўныя функцыі і бібліятэкі, значна паскараючы звычайна павольны працэс ручнога аўдыту кода. Гэты тып інструмента можа змяніць правілы гульні для такіх галін, як фінансы або ўрад, якія абапіраюцца на вялікія, старыя базы кода — штучны інтэлект дапамагае мадэрнізаваць бяспеку, выяўляючы праблемы, на пошук якіх супрацоўнікам могуць спатрэбіцца месяцы ці гады (калі наогул).

Генератыўны штучны інтэлект таксама дапамагае ў працоўных працэсах кіравання ўразлівасцямі , апрацоўваючы вынікі сканавання ўразлівасцяў і расстаўляючы ім прыярытэты. Такія інструменты, як ExposureAI , выкарыстоўваюць генератыўны штучны інтэлект, каб дазволіць аналітыкам запытваць дадзеныя аб уразлівасцях простай мовай і атрымліваць імгненныя адказы ( Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы? 10 рэальных прыкладаў ). ExposureAI можа «абагульніць поўны шлях атакі ў апавяданні» для пэўнай крытычнай уразлівасці, тлумачачы, як зламыснік можа звязаць яе з іншымі ўразлівасцямі, каб скампраметаваць сістэму. Ён нават рэкамендуе дзеянні па выпраўленні і адказвае на дадатковыя пытанні аб рызыцы. Гэта азначае, што калі аб'яўляецца новая крытычная CVE (агульныя ўразлівасці і рызыкі), аналітык можа спытаць у штучнага інтэлекту: «Ці пацярпелі якія-небудзь з нашых сервераў ад гэтай CVE і які найгоршы сцэнар, калі мы не выправім праблемы?» і атрымаць выразную ацэнку, зробленую на аснове ўласных дадзеных сканавання арганізацыі. Кантэкстуалізуючы ўразлівасці (напрыклад, гэтая ўразлівасць знаходзіцца ў Інтэрнэце і знаходзіцца на каштоўным серверы, таму яна мае галоўны прыярытэт), генератыўны штучны інтэлект дапамагае камандам разумна выпраўляць праблемы з абмежаванымі рэсурсамі.

Акрамя пошуку і кіравання вядомымі ўразлівасцямі, генератыўны штучны інтэлект уносіць свой уклад у тэсціраванне на пранікненне і мадэляванне атак — па сутнасці, выяўляючы невядомыя ўразлівасці або тэсціруючы сродкі бяспекі. Генератыўна-змагальныя сеткі (GAN), тып генератыўнага штучнага інтэлекту, выкарыстоўваліся для стварэння сінтэтычных дадзеных, якія імітуюць рэальны сеткавы трафік або паводзіны карыстальнікаў, якія могуць уключаць схаваныя шаблоны атак. У даследаванні 2023 года было прапанавана выкарыстоўваць GAN для стварэння рэалістычнага трафіку атак нулявога дня для навучання сістэм выяўлення ўварванняў ( 6 выпадкаў выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы [+ прыклады] ). Забяспечваючы сістэму выяўлення ўварванняў сцэнарыямі атак, распрацаванымі штучным інтэлектам (якія не рызыкуюць выкарыстоўваць рэальнае шкоднаснае праграмнае забеспячэнне ў вытворчых сетках), арганізацыі могуць навучыць сваю абарону распазнаваць новыя пагрозы, не чакаючы іх рэальнага ўдару. Падобным чынам, штучны інтэлект можа імітаваць зламысніка, які даследуе сістэму, напрыклад, аўтаматычна спрабуючы розныя метады эксплойту ў бяспечным асяроддзі, каб убачыць, ці атрымаецца які-небудзь з іх. Агенцтва перадавых даследчых праектаў Міністэрства абароны ЗША (DARPA) бачыць у гэтым шматабяцальны падыход: у рамках «аўтаматычнага пошуку і выпраўлення ўразлівасцяў у праграмным забеспячэнні з адкрытым зыходным кодам» DARPA імкнецца распрацоўваць штучны інтэлект і аўтаномныя праграмы, якім байцы могуць давяраць > Міністэрства абароны ЗША > Навіны Міністэрства абароны ). Гэтая ініцыятыва падкрэслівае, што штучны інтэлект не проста дапамагае латаць вядомыя дзіркі; ён актыўна выяўляе новыя і прапануе выпраўленні, што традыцыйна абмяжоўваецца кваліфікаванымі (і дарагімі) даследчыкамі ў галіне бяспекі.

Генератыўны штучны інтэлект можа нават ствараць інтэлектуальныя прынады і лічбавыя двайнікі для абароны. Стартапы распрацоўваюць сістэмы-прыманкі на базе штучнага інтэлекту, якія пераканаўча імітуюць рэальныя серверы або прылады. Як растлумачыў адзін генеральны дырэктар, генератыўны штучны інтэлект можа «кланіраваць лічбавыя сістэмы, каб імітаваць рэальныя і прывабліваць хакераў» ( 6 выпадкаў выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы [+ прыклады] ). Гэтыя прынады, згенераваныя штучным інтэлектам, паводзяць сябе як рэальнае асяроддзе (напрыклад, падробленая прылада Інтэрнэту рэчаў, якая адпраўляе звычайную тэлеметрыю), але існуюць выключна для таго, каб прыцягваць зламыснікаў. Калі зламыснік нацэльваецца на прынаду, штучны інтэлект па сутнасці падманвае яго, прымушаючы раскрыць свае метады, якія абаронцы потым могуць вывучыць і выкарыстоўваць для ўмацавання рэальных сістэм. Гэтая канцэпцыя, заснаваная на генератыўным мадэляванні, забяспечвае перспектыўны спосаб пераламаць сітуацыю супраць зламыснікаў , выкарыстоўваючы падман, узмоцнены штучным інтэлектам.

Ва ўсіх галінах хутчэйшае і больш разумнае кіраванне ўразлівасцямі азначае менш парушэнняў. Напрыклад, у сферы медыцынскіх інфармацыйных тэхналогій штучны інтэлект можа хутка выявіць уразлівую састарэлую бібліятэку ў медыцынскай прыладзе і запытаць выпраўленне прашыўкі, перш чым зламыснік скарыстаецца гэтым. У банкаўскай сферы штучны інтэлект можа імітаваць унутраную атаку на новае прыкладанне, каб гарантаваць бяспеку дадзеных кліентаў ва ўсіх сцэнарыях. Такім чынам, генератыўны штучны інтэлект выступае адначасова і ў якасці мікраскопа, і ў якасці стрэс-тэстара бяспекі арганізацый: ён выяўляе схаваныя недахопы і аказвае ціск на сістэмы вынаходлівымі спосабамі, каб забяспечыць устойлівасць.

Бяспечная генерацыя кода і распрацоўка праграмнага забеспячэння

Магчымасці генератыўнага штучнага інтэлекту не абмяжоўваюцца выяўленнем атак — яны таксама распаўсюджваюцца на стварэнне больш бяспечных сістэм з самага пачатку . У распрацоўцы праграмнага забеспячэння генератары кода штучнага інтэлекту (напрыклад, GitHub Copilot, OpenAI Codex і г.д.) могуць дапамагчы распрацоўшчыкам пісаць код хутчэй, прапаноўваючы фрагменты кода або нават цэлыя функцыі. Аспект кібербяспекі заключаецца ў забеспячэнні бяспекі гэтых прапанаваных штучным інтэлектам фрагментаў кода і выкарыстанні штучнага інтэлекту для паляпшэння практыкі кадавання.

З аднаго боку, генератыўны штучны інтэлект можа выступаць у якасці памочніка па кадаванні, які ўкараняе найлепшыя практыкі бяспекі . Распрацоўшчыкі могуць задаць задачу інструменту штучнага інтэлекту: «Стварыць функцыю скіду пароля ў Python» і, у ідэале, атрымаць код, які не толькі функцыянальны, але і адпавядае рэкамендацыям па бяспецы (напрыклад, правільная праверка ўводу, рэгістрацыя, апрацоўка памылак без уцечкі інфармацыі і г.д.). Такі памочнік, навучаны на шматлікіх прыкладах бяспечнага кода, можа дапамагчы паменшыць колькасць памылак чалавека, якія прыводзяць да ўразлівасцяў. Напрыклад, калі распрацоўшчык забывае ачысціць увод карыстальніка (адкрываючы дзверы для SQL-ін'екцый або падобных праблем), штучны інтэлект можа альбо ўключыць гэта па змаўчанні, альбо папярэдзіць яго. Некаторыя інструменты кадавання штучнага інтэлекту зараз дапрацоўваюцца з выкарыстаннем дадзеных, арыентаваных на бяспеку, каб служыць менавіта гэтай мэце — па сутнасці, штучны інтэлект спалучае праграмаванне з сумленнем бяспекі .

Аднак ёсць і адваротны бок: генератыўны штучны інтэлект можа гэтак жа лёгка прывесці да ўразлівасцяў, калі ім не кіраваць належным чынам. Як адзначыў эксперт па бяспецы Sophos Бэн Вершарэн, выкарыстанне генератыўнага штучнага інтэлекту для кадавання «добра для кароткага, праверанага кода, але рызыкоўна, калі неправераны код інтэгруецца» ў вытворчыя сістэмы. Рызыка заключаецца ў тым, што штучны інтэлект можа стварыць лагічна правільны код, які будзе небяспечным такім чынам, што неэксперт можа не заўважыць. Больш за тое, зламыснікі могуць наўмысна паўплываць на публічныя мадэлі штучнага інтэлекту, засеваючы іх уразлівымі шаблонамі кода (форма атручвання дадзеных), каб штучны інтэлект прапаноўваў небяспечны код. Большасць распрацоўшчыкаў не з'яўляюцца экспертамі па бяспецы , таму, калі штучны інтэлект прапануе зручнае рашэнне, яны могуць выкарыстоўваць яго ўсляпую, не разумеючы, што ў ім ёсць недахоп ( 6 выпадкаў выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы [+ прыклады] ). Гэтая заклапочанасць рэальная — на самой справе, цяпер існуе спіс 10 лепшых OWASP для LLM (мадэляў вялікіх моў), які апісвае распаўсюджаныя рызыкі, падобныя да гэтай, пры выкарыстанні штучнага інтэлекту для кадавання.

Каб супрацьстаяць гэтым праблемам, эксперты прапануюць «змагацца з генератыўным штучным інтэлектам з дапамогай генератыўнага штучнага інтэлекту» ў сферы кадавання. На практыцы гэта азначае выкарыстанне штучнага інтэлекту для праверкі і тэставання кода , напісанага іншым штучным інтэлектам (ці людзьмі). Штучны інтэлект можа праглядаць новыя каміты кода значна хутчэй, чым чалавек-рэцэнзент кода, і пазначаць патэнцыйныя ўразлівасці або лагічныя праблемы. Мы ўжо бачым з'яўленне інструментаў, якія інтэгруюцца ў жыццёвы цыкл распрацоўкі праграмнага забеспячэння: код пішацца (магчыма, з дапамогай штучнага інтэлекту), затым генератыўная мадэль, навучаная на прынцыпах бяспечнага кода, праглядае яго і генеруе справаздачу аб любых праблемах (напрыклад, выкарыстанне састарэлых функцый, адсутнасць праверак аўтэнтыфікацыі і г.д.). Даследаванне NVIDIA, згаданае раней, якое дасягнула ў 4 разы хутчэйшага выяўлення ўразлівасцяў у кодзе, з'яўляецца прыкладам выкарыстання штучнага інтэлекту для бяспечнага аналізу кода ( 6 выпадкаў выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы [+ прыклады] ).

Акрамя таго, генератыўны штучны інтэлект можа дапамагчы ў стварэнні бяспечных канфігурацый і сцэнарыяў . Напрыклад, калі кампаніі трэба разгарнуць бяспечную воблачную інфраструктуру, інжынер можа папрасіць штучны інтэлект стварыць сцэнарыі канфігурацыі (інфраструктура як код) з убудаванымі элементамі бяспекі (напрыклад, належная сегментацыя сеткі, ролі IAM з найменшымі прывілеямі). Штучны інтэлект, навучаны на тысячах такіх канфігурацый, можа стварыць базавы ўзровень, які інжынер затым дапрацуе. Гэта паскарае бяспечную наладу сістэм і памяншае памылкі няправільнай канфігурацыі — распаўсюджаную крыніцу інцыдэнтаў бяспекі воблачных сістэм.

Некаторыя арганізацыі таксама выкарыстоўваюць генератыўны штучны інтэлект для падтрымання базы ведаў аб бяспечных шаблонах кадавання. Калі распрацоўшчык не ўпэўнены, як бяспечна рэалізаваць пэўную функцыю, ён можа запытаць унутраны штучны інтэлект, які вучыцца на папярэдніх праектах кампаніі і рэкамендацыях па бяспецы. Штучны інтэлект можа вярнуць рэкамендаваны падыход або нават фрагмент кода, які адпавядае як функцыянальным патрабаванням, так і стандартам бяспекі кампаніі. Гэты падыход выкарыстоўваўся такімі інструментамі, як Secureframe's Questionnaire Automation , які атрымлівае адказы з палітык кампаніі і папярэдніх рашэнняў, каб забяспечыць паслядоўныя і дакладныя адказы (па сутнасці, ствараючы бяспечную дакументацыю) ( Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы? 10 рэальных прыкладаў ). Гэтая канцэпцыя перакладаецца як кадаванне: штучны інтэлект, які «памятае», як вы бяспечна рэалізавалі нешта раней, і накіроўвае вас зрабіць гэта такім жа чынам зноў.

Карацей кажучы, генератыўны штучны інтэлект уплывае на распрацоўку праграмнага забеспячэння, робячы дапамогу ў бяспечным кадаванні больш даступнай . Галіны, якія распрацоўваюць шмат заказнога праграмнага забеспячэння — тэхналогіі, фінансы, абарона і г.д. — могуць атрымаць выгаду ад наяўнасці сумесных пілотаў са штучным інтэлектам, якія не толькі паскараюць кадаванне, але і выступаюць у якасці пастаянна пільнага рэцэнзента бяспекі. Пры правільным кіраванні гэтыя інструменты штучнага інтэлекту могуць паменшыць з'яўленне новых уразлівасцей і дапамагчы камандам распрацоўшчыкаў прытрымлівацца перадавых практык, нават калі ў камандзе няма эксперта па бяспецы, які ўдзельнічае ў кожным этапе. У выніку атрымліваецца праграмнае забеспячэнне, якое больш устойлівае да нападаў з першага дня.

Падтрымка рэагавання на інцыдэнты

Калі адбываецца інцыдэнт з кібербяспекай — няхай гэта будзе ўспышка шкоднаснага праграмнага забеспячэння, уцечка дадзеных або збой сістэмы ў выніку атакі — час мае вырашальнае значэнне. Генератыўны штучны інтэлект усё часцей выкарыстоўваецца для падтрымкі каманд рэагавання на інцыдэнты (IR) у больш хуткім стрымліванні і ліквідацыі інцыдэнтаў з большай колькасцю інфармацыі. Ідэя заключаецца ў тым, што штучны інтэлект можа ўзяць на сябе частку расследавання і дакументавання падчас інцыдэнту, і нават прапанаваць або аўтаматызаваць некаторыя дзеянні па рэагаванні.

Адной з ключавых роляў штучнага інтэлекту ў кібербяспецы з'яўляецца аналіз і падсумаванне інцыдэнтаў у рэжыме рэальнага часу . Падчас інцыдэнту рэагавальнікам могуць спатрэбіцца адказы на такія пытанні, як «Як зламыснік трапіў у сістэму?» , «Якія сістэмы пацярпелі?» і «Якія даныя могуць быць скампраметаваны?» . Генератыўны штучны інтэлект можа аналізаваць журналы, абвесткі і экспертызныя даныя з пацярпелых сістэм і хутка прадастаўляць аналітычныя дадзеныя. Напрыклад, Microsoft Security Copilot дазваляе рэагавальніку на інцыдэнты падаваць розныя доказы (файлы, URL-адрасы, журналы падзей) і запытваць храналогію або зводку ( Microsoft Security Copilot — гэта новы памочнік штучнага інтэлекту GPT-4 для кібербяспекі | The Verge ). Штучны інтэлект можа адказаць: «Узлом, верагодна, пачаўся з фішынгавага электроннага ліста карыстальніку JohnDoe а 10:53 GMT, які змяшчаў шкоднаснае праграмнае забеспячэнне X. Пасля запуску шкоднаснае праграмнае забеспячэнне стварыла бэкдор, які быў выкарыстаны праз два дні для перамяшчэння на фінансавы сервер, дзе яно збірала даныя». Наяўнасць гэтай звязнай карціны за лічаныя хвіліны, а не за гадзіны дазваляе камандзе значна хутчэй прымаць абгрунтаваныя рашэнні (напрыклад, якія сістэмы ізаляваць).

Генератыўны штучны інтэлект можа таксама прапанаваць меры па стрымліванні і аднаўленні . Напрыклад, калі канчатковая кропка заражана праграмай-вымагальнікам, інструмент штучнага інтэлекту можа згенераваць скрыпт або набор інструкцый для ізаляцыі гэтай машыны, адключэння пэўных уліковых запісаў і блакавання вядомых шкоднасных IP-адрасоў на брандмаўэры — па сутнасці, выкананне паводле сцэнарыя. Palo Alto Networks адзначае, што генератыўны штучны інтэлект здольны «генераваць адпаведныя дзеянні або скрыпты ў залежнасці ад характару інцыдэнту» , аўтаматызуючы пачатковыя этапы рэагавання ( Што такое генератыўны штучны інтэлект у кібербяспецы? - Palo Alto Networks ). У сцэнарыі, калі каманда бяспекі перагружаная (скажам, шырока распаўсюджаная атака на сотні прылад), штучны інтэлект можа нават непасрэдна выканаць некаторыя з гэтых дзеянняў у загадзя зацверджаных умовах, дзейнічаючы як малодшы рэагавальнік, які працуе нястомна. Напрыклад, агент штучнага інтэлекту можа аўтаматычна скінуць уліковыя дадзеныя, якія ён лічыць узламанымі, або паставіць у каранцін хосты, якія праяўляюць шкоднасную актыўнасць, якая адпавядае профілю інцыдэнту.

Падчас рэагавання на інцыдэнт камунікацыя мае жыццёва важнае значэнне — як унутры каманды, так і з зацікаўленымі бакамі. Генератыўны штучны інтэлект можа дапамагчы падрыхтаваўшы справаздачы аб інцыдэнтах або брыфінгі на хаду . Замест таго, каб інжынер спыняў пошук і ліквідацыю непаладак, каб напісаць абнаўленне па электроннай пошце, ён мог бы папрасіць штучны інтэлект: «Каротка апішыце, што адбылося ў гэтым інцыдэнце да гэтага часу, каб паведаміць кіраўніцтву». Штучны інтэлект, атрымаўшы дадзеныя аб інцыдэнце, можа скласці кароткі змест: «Па стане на 15:00 зламыснікі атрымалі доступ да 2 уліковых запісаў карыстальнікаў і 5 сервераў. Закранутыя дадзеныя ўключаюць запісы кліентаў у базе дадзеных X. Меры стрымлівання: доступ да VPN для ўзламаных уліковых запісаў быў адкліканы, а серверы ізаляваны. Наступныя крокі: сканаванне на наяўнасць любых механізмаў захоўвання». Затым рэагавальнік можа хутка праверыць або змяніць гэта і адправіць, гарантуючы, што зацікаўленыя бакі будуць у курсе дакладнай і актуальнай інфармацыі.

Пасля таго, як пыл асядзе, звычайна рыхтуецца падрабязная справаздача аб інцыдэнце і збіраюцца атрыманыя ўрокі. Гэта яшчэ адна вобласць, дзе падтрымка штучнага інтэлекту выдатна спраўляецца. Ён можа прааналізаваць усе дадзеныя аб інцыдэнце і стварыць справаздачу пасля інцыдэнту, якая ахоплівае першапрычыну, храналогію, наступствы і рэкамендацыі. Напрыклад, IBM інтэгруе генератыўны штучны інтэлект для стварэння «простых рэзюмэ выпадкаў бяспекі і інцыдэнтаў, якімі можна падзяліцца з зацікаўленымі бакамі» адным націскам кнопкі ( Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы? 10 рэальных прыкладаў ). Дзякуючы аптымізацыі справаздачнасці пасля дзеянняў арганізацыі могуць хутчэй укараняць паляпшэнні, а таксама мець лепшую дакументацыю для мэтаў захавання адпаведнасці.

Адным з інавацыйных перспектыўных спосабаў выкарыстання з'яўляецца мадэляванне інцыдэнтаў з дапамогай штучнага інтэлекту . Падобна таму, як можна правесці пажарную трэніроўку, некаторыя кампаніі выкарыстоўваюць генератыўны штучны інтэлект для разбору сцэнарыяў інцыдэнтаў «што, калі». Штучны інтэлект можа мадэляваць, як можа распаўсюджвацца праграма-вымагальнік з улікам структуры сеткі, або як інсайдэр можа выкрасці даныя, а затым ацаніць эфектыўнасць бягучых планаў рэагавання. Гэта дапамагае камандам падрыхтаваць і ўдасканальваць стратэгіі да таго, як адбудзецца рэальны інцыдэнт. Гэта як мець пастаянна ўдасканальваючагася кансультанта па рэагаванні на інцыдэнты, які пастаянна правярае вашу гатоўнасць.

У такіх галінах з высокімі стаўкамі, як фінансы або ахова здароўя, дзе прастоі або страта дадзеных з-за інцыдэнтаў асабліва дарагія, гэтыя магчымасці рэагавання на інцыдэнты на аснове штучнага інтэлекту вельмі прывабныя. Шпіталь, які перажывае кіберінцыдэнт, не можа дазволіць сабе працяглыя адключэнні сістэмы — штучны інтэлект, які хутка дапамагае ў стрымліванні, можа літаральна выратаваць жыццё. Аналагічна, фінансавая ўстанова можа выкарыстоўваць штучны інтэлект для першапачатковай трыяжы падазраванага ўварвання ў махлярства а 3-й гадзіне ночы, каб да таго часу, як дзяжурныя людзі будуць у сетцы, вялікая частка падрыхтоўчай працы (выхад з пацярпелых акаўнтаў, блакаванне транзакцый і г.д.) ужо была зроблена. Павялічваючы групы рэагавання на інцыдэнты генератыўным штучным інтэлектам , арганізацыі могуць значна скараціць час рэагавання і палепшыць стараннасць іх апрацоўкі, што ў канчатковым выніку змякчае шкоду ад кіберінцыдэнтаў.

Паводніцкая аналітыка і выяўленне анамалій

Шмат якія кібератакі можна выявіць, заўважыўшы адхіленні ад «нармальнай» паводзін — няхай гэта будзе загрузка незвычайнай колькасці дадзеных з уліковага запісу карыстальніка або раптоўнае злучэнне сеткавай прылады з незнаёмым хостам. Генератыўны штучны інтэлект прапануе перадавыя метады аналізу паводзін і выяўлення анамалій , вывучаючы звычайныя заканамернасці карыстальнікаў і сістэм, а затым падаючы сігналы, калі нешта выглядае не так.

Традыцыйнае выяўленне анамалій часта выкарыстоўвае статыстычныя парогі або простае машыннае навучанне па пэўных паказчыках (пікі выкарыстання працэсара, уваход у сістэму ў нязручны час і г.д.). Генератыўны штучны інтэлект можа пайсці далей, ствараючы больш тонкія профілі паводзін. Напрыклад, мадэль штучнага інтэлекту можа з цягам часу апрацоўваць лагіны, шаблоны доступу да файлаў і звычкі электроннай пошты супрацоўніка і фарміраваць шматмернае разуменне «нармальнасці» гэтага карыстальніка. Калі гэты ўліковы запіс пазней робіць нешта кардынальна выходзіць за рамкі сваёй нормы (напрыклад, уваходзіць у сістэму з новай краіны і атрымлівае доступ да вялікай колькасці файлаў аддзела кадраў апоўначы), штучны інтэлект выявіць адхіленне не толькі па адным паказчыку, але і па ўсім шаблоне паводзін, які не адпавядае профілю карыстальніка. У тэхнічным плане генератыўныя мадэлі (напрыклад, аўтакадэры або мадэлі паслядоўнасцей) могуць мадэляваць, як выглядае «нармальная», а затым генераваць чаканы дыяпазон паводзін. Калі рэальнасць выходзіць за межы гэтага дыяпазону, гэта пазначаецца як анамалія ( Што такое генератыўны штучны інтэлект у кібербяспецы? - Palo Alto Networks ).

Адным з практычных ужыванняў з'яўляецца маніторынг сеткавага трафіку . Згодна з апытаннем 2024 года, 54% амерыканскіх арганізацый назвалі маніторынг сеткавага трафіку галоўным выпадкам выкарыстання штучнага інтэлекту ў кібербяспецы ( Паўночная Амерыка: галоўныя выпадкі выкарыстання штучнага інтэлекту ў кібербяспецы ва ўсім свеце ў 2024 годзе ). Генератыўны штучны інтэлект можа вывучаць звычайныя шаблоны камунікацыі ў сетцы прадпрыемства — якія серверы звычайна ўзаемадзейнічаюць адзін з адным, якія аб'ёмы дадзеных перамяшчаюцца ў працоўны час у параўнанні з ноччу і г.д. Калі зламыснік пачне выцягваць дадзеныя з сервера, нават павольна, каб пазбегнуць выяўлення, сістэма на аснове штучнага інтэлекту можа заўважыць, што «Сервер А ніколі не адпраўляе 500 МБ дадзеных а 2-й гадзіне ночы на ​​знешні IP-адрас», і падняць трывогу. Паколькі штучны інтэлект выкарыстоўвае не толькі статычныя правілы, але і мадэль паводзін сеткі, якая развіваецца, ён можа выяўляць тонкія анамаліі, якія статычныя правілы (напрыклад, «папярэджанне, калі дадзеныя > X МБ») могуць прапусціць або памылкова пазначыць. Гэтая адаптыўная прырода робіць выяўленне анамалій на аснове штучнага інтэлекту магутным у такіх асяроддзях, як сеткі банкаўскіх транзакцый, воблачная інфраструктура або паркі прылад Інтэрнэту рэчаў, дзе вызначэнне фіксаваных правілаў для нармальнага і анамальнага стану надзвычай складанае.

Генератыўны штучны інтэлект таксама дапамагае з аналітыкай паводзін карыстальнікаў (UBA) , якая з'яўляецца ключом да выяўлення ўнутраных пагроз або ўзламаных акаўнтаў. Генеруючы базавую базу кожнага карыстальніка або аб'екта, штучны інтэлект можа выяўляць такія рэчы, як злоўжыванне ўліковымі дадзенымі. Напрыклад, калі Боб з бухгалтэрыі раптоўна пачне запытваць базу дадзеных кліентаў (чаго ён ніколі раней не рабіў), мадэль штучнага інтэлекту для паводзін Боба пазначыць гэта як незвычайнае. Гэта можа быць не шкоднаснае праграмнае забеспячэнне — гэта можа быць выпадак крадзяжу і выкарыстання ўліковых дадзеных Боба зламыснікам, або Боб можа даследаваць там, дзе не павінен. У любым выпадку, служба бяспекі атрымлівае папярэджанне для расследавання. Такія сістэмы UBA на базе штучнага інтэлекту існуюць у розных прадуктах бяспекі, і метады генератыўнага мадэлявання павышаюць іх дакладнасць і памяншаюць колькасць ілжывых трывог, улічваючы кантэкст (магчыма, Боб знаходзіцца на спецыяльным праекце і г.д., што штучны інтэлект часам можа зрабіць выснову з іншых дадзеных).

У сферы кіравання ідэнтыфікацыяй і доступам выяўленне глыбокіх фэйкаў становіцца ўсё большай патрэбай — генератыўны штучны інтэлект можа ствараць сінтэтычныя галасы і відэа, якія падманваюць біяметрычную бяспеку. Цікава, што генератыўны штучны інтэлект таксама можа дапамагчы выявіць гэтыя глыбокія фэйкі, аналізуючы нязначныя артэфакты ў аўдыё- ці відэа, якія цяжка заўважыць чалавеку. Мы бачылі прыклад з Accenture, якая выкарыстоўвала генератыўны штучны інтэлект для мадэлявання незлічоных выразаў твару і ўмоў, каб навучыць свае біяметрычныя сістэмы адрозніваць рэальных карыстальнікаў ад глыбокіх фэйкаў, згенераваных штучным інтэлектам. За пяць гадоў гэты падыход дапамог Accenture ліквідаваць паролі для 90% сваіх сістэм (перайшоўшы на біяметрыю і іншыя фактары) і скараціць колькасць атак на 60% ( 6 выпадкаў выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы [+ прыклады] ). Па сутнасці, яны выкарыстоўвалі генератыўны штучны інтэлект для ўзмацнення біяметрычнай аўтэнтыфікацыі, зрабіўшы яе ўстойлівай да генератыўных атак (выдатная ілюстрацыя барацьбы штучнага інтэлекту са штучным інтэлектам). Такога роду паводніцкае мадэляванне — у дадзеным выпадку распазнаванне розніцы паміж жывым чалавечым тварам і сінтэзаваным штучным інтэлектам — мае вырашальнае значэнне, паколькі мы ўсё больш абапіраемся на штучны інтэлект у аўтэнтыфікацыі.

Выяўленне анамалій на базе генератыўнага штучнага інтэлекту прымяняецца ў розных галінах прамысловасці: у ахове здароўя — маніторынг паводзін медыцынскіх прылад на прадмет прыкмет узлому; у фінансах — назіранне за гандлёвымі сістэмамі на прадмет нерэгулярных заканамернасцей, якія могуць сведчыць аб махлярстве або алгарытмічных маніпуляцыях; у энергетыцы/камунальных паслугах — назіранне за сігналамі сістэм кіравання на прадмет прыкмет узломаў. Спалучэнне шырыні (разгляд усіх аспектаў паводзін) і глыбіні (разуменне складаных заканамернасцей) , якое забяспечвае генератыўны штучны інтэлект, робіць яго магутным інструментам для выяўлення прыкмет кіберінцыдэнту, хаваючы іх як іголку ў стозе сена. Па меры таго, як пагрозы становяцца ўсё больш схаванымі, хаваючыся сярод звычайных аперацый, гэтая здольнасць дакладна характарызаваць «нармальнае» і паведамляць, калі нешта адхіляецца, становіцца жыццёва важнай. Такім чынам, генератыўны штучны інтэлект служыць нястомным вартавым, які заўсёды вучыцца і абнаўляе сваё вызначэнне нармальнасці, каб ісці ў нагу са зменамі ў навакольным асяроддзі, і папярэджвае службы бяспекі аб анамаліях, якія патрабуюць больш уважлівага вывучэння.

Магчымасці і перавагі генератыўнага штучнага інтэлекту ў кібербяспецы

Прымяненне генератыўнага штучнага інтэлекту ў кібербяспецы адкрывае мноства магчымасцей і пераваг для арганізацый, якія жадаюць выкарыстоўваць гэтыя інструменты. Ніжэй мы коратка апісваем ключавыя перавагі, якія робяць генератыўны штучны інтэлект пераканаўчым дадаткам да праграм кібербяспекі:

  • Хутчэйшае выяўленне пагроз і рэагаванне на іх: генератыўныя сістэмы штучнага інтэлекту могуць аналізаваць велізарныя аб'ёмы дадзеных у рэжыме рэальнага часу і распазнаваць пагрозы значна хутчэй, чым ручны аналіз чалавекам. Гэтая перавага ў хуткасці азначае больш ранняе выяўленне атак і больш хуткае стрымліванне інцыдэнтаў. На практыцы маніторынг бяспекі на аснове штучнага інтэлекту можа выяўляць пагрозы, на карэляцыю якіх людзям спатрэбілася б значна больш часу. Аператыўна рэагуючы на ​​інцыдэнты (ці нават аўтаномна выконваючы першапачатковыя дзеянні), арганізацыі могуць значна скараціць час знаходжання зламыснікаў у сваіх сетках, мінімізуючы шкоду.

  • Палепшаная дакладнасць і ахоп пагроз: Паколькі генератыўныя мадэлі пастаянна вучацца на новых дадзеных, яны могуць адаптавацца да новых пагроз і выяўляць больш тонкія прыкметы шкоднаснай дзейнасці. Гэта прыводзіць да павышэння дакладнасці выяўлення (менш ілжывых адмоўных і ілжыва спрацоўвальных вынікаў) у параўнанні са статычнымі правіламі. Напрыклад, штучны інтэлект, які вывучыў прыкметы фішынгавага электроннага ліста або паводзін шкоднаснага праграмнага забеспячэння, можа вызначыць варыянты, якія ніколі раней не сустракаліся. У выніку атрымліваецца больш шырокае ахопленне тыпаў пагроз, у тым ліку новых атак, што ўмацоўвае агульную бяспеку. Каманды бяспекі таксама атрымліваюць падрабязную інфармацыю з аналізу штучнага інтэлекту (напрыклад, тлумачэнні паводзін шкоднаснага праграмнага забеспячэння), што дазваляе больш дакладна і мэтанакіравана абараняць ( Што такое генератыўны штучны інтэлект у кібербяспецы? - Palo Alto Networks ).

  • Аўтаматызацыя паўтаральных задач: генератыўны штучны інтэлект выдатна спраўляецца з аўтаматызацыяй руцінных, працаёмкіх задач бяспекі — ад прагляду журналаў і складання справаздач да напісання сцэнарыяў рэагавання на інцыдэнты. Такая аўтаматызацыя памяншае нагрузку на аналітыкаў-людзей , дазваляючы ім засяродзіцца на стратэгіі высокага ўзроўню і прыняцці складаных рашэнняў ( Што такое генератыўны штучны інтэлект у кібербяспецы? — Palo Alto Networks ). Такія звычайныя, але важныя задачы, як сканаванне ўразлівасцяў, аўдыт канфігурацыі, аналіз актыўнасці карыстальнікаў і справаздачнасць аб адпаведнасці, могуць быць выкананы (ці прынамсі падрыхтаваны ў першых чарнавіках) штучным інтэлектам. Выконваючы гэтыя задачы з машыннай хуткасцю, штучны інтэлект не толькі павышае эфектыўнасць, але і памяншае колькасць памылак чалавека (значны фактар ​​парушэнняў).

  • Праактыўная абарона і мадэляванне: генератыўны штучны інтэлект дазваляе арганізацыям пераходзіць ад рэактыўнай да праактыўнай бяспекі. Дзякуючы такім метадам, як мадэляванне атак, генерацыя сінтэтычных дадзеных і навучанне на аснове сцэнарыяў, абаронцы могуць прадбачыць пагрозы і падрыхтавацца да іх, перш чым яны матэрыялізуюцца ў рэальным свеце. Каманды бяспекі могуць мадэляваць кібератакі (фішынгавыя кампаніі, успышкі шкоднасных праграм, DDoS-атак і г.д.) у бяспечным асяроддзі, каб праверыць свае рэакцыі і ўмацаваць любыя слабыя месцы. Гэта бесперапыннае навучанне, якое часта немагчыма старанна выканаць толькі з дапамогай чалавечых намаганняў, падтрымлівае абарону ў актуальным стане. Гэта падобна на кібер«пажарную вучэбку» — штучны інтэлект можа кінуць мноства гіпатэтычных пагроз вашай абароне, каб вы маглі практыкавацца і ўдасканальвацца.

  • Пашырэнне чалавечай экспертызы (ШІ як мультыплікатар сілы): Генератыўны ШІ выступае ў якасці нястомнага малодшага аналітыка, кансультанта і памочніка ў адной асобе. Ён можа даць менш вопытным членам каманды рэкамендацыі і рэкамендацыі, якія звычайна чакаюцца ад вопытных экспертаў, эфектыўна дэмакратызуючы экспертызу ў камандзе ( 6 выпадкаў выкарыстання генератыўнага ШІ ў кібербяспецы [+ прыклады] ). Гэта асабліва каштоўна, улічваючы дэфіцыт талентаў у кібербяспецы — ШІ дапамагае невялікім камандам рабіць больш з меншымі выдаткамі. Дасведчаныя аналітыкі, з іншага боку, атрымліваюць карысць ад ШІ, які спраўляецца з цяжкай працай і выяўляе невідавочныя ідэі, якія яны потым могуць праверыць і дзейнічаць. У цэлым каманда бяспекі становіцца значна больш прадуктыўнай і здольнай, прычым ШІ ўзмацняе ўплыў кожнага чалавека ( Як можна выкарыстоўваць генератыўны ШІ ў кібербяспецы ).

  • Палепшаная падтрымка прыняцця рашэнняў і справаздачнасці: перакладаючы тэхнічныя дадзеныя на натуральную мову, генератыўны штучны інтэлект паляпшае камунікацыю і прыняцце рашэнняў. Кіраўнікі па бяспецы атрымліваюць больш выразнае ўяўленне аб праблемах дзякуючы згенераваным штучным інтэлектам рэзюмэ і могуць прымаць абгрунтаваныя стратэгічныя рашэнні без неабходнасці аналізу неапрацаваных дадзеных. Аналагічна, міжфункцыянальная камунікацыя (з кіраўнікамі, супрацоўнікамі па захаванні адпаведнасці і г.д.) паляпшаецца, калі штучны інтэлект рыхтуе лёгкія для разумення справаздачы аб стане бяспекі і інцыдэнтах ( Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы? 10 рэальных прыкладаў ). Гэта не толькі ўмацоўвае давер і ўзгодненасць па пытаннях бяспекі на ўзроўні кіраўніцтва, але і дапамагае апраўдаць інвестыцыі і змены, выразна акрэсліваючы рызыкі і выяўленыя штучным інтэлектам прабелы.

У спалучэнні гэтыя перавагі азначаюць, што арганізацыі, якія выкарыстоўваюць генератыўны штучны інтэлект у кібербяспецы, могуць дасягнуць больш моцнай бяспекі з патэнцыйна меншымі эксплуатацыйнымі выдаткамі. Яны могуць рэагаваць на пагрозы, якія раней былі непераадольнымі, закрываць прабелы, якія заставаліся па-за кантролем, і пастаянна ўдасканальвацца дзякуючы цыклам зваротнай сувязі, заснаваны на штучным інтэлекце. У рэшце рэшт, генератыўны штучны інтэлект дае магчымасць апярэдзіць праціўнікаў, супастаўляючы хуткасць, маштаб і складанасць сучасных атак з гэтак жа складанай абаронай. Як паказала адно апытанне, больш за палову бізнес-лідэраў і кіберлідэраў чакаюць больш хуткага выяўлення пагроз і павышэння дакладнасці дзякуючы выкарыстанню генератыўнага штучнага інтэлекту ( [PDF] Глабальны агляд кібербяспекі 2025 | Сусветны эканамічны форум ) ( Генеральны штучны інтэлект у кібербяспецы: усебаковы агляд магістра права ... ) - што сведчыць аб аптымізму адносна пераваг гэтых тэхналогій.

Рызыкі і праблемы выкарыстання генератыўнага штучнага інтэлекту ў кібербяспецы

Нягледзячы на ​​значныя магчымасці, вельмі важна падыходзіць да генератыўнага штучнага інтэлекту ў кібербяспецы з адкрытым поглядам на рызыкі і праблемы, звязаныя з гэтым. Сляпая давер да штучнага інтэлекту або яго няправільнае выкарыстанне можа прывесці да новых уразлівасцей. Ніжэй мы акрэсліваем асноўныя праблемы і падводныя камяні, а таксама кантэкст для кожнай з іх:

  • Выкарыстанне кіберзлачынцамі ў мэтах барацьбы: тыя ж генератыўныя магчымасці, якія дапамагаюць абаронцам, могуць даць магчымасць зламыснікам. Супрацоўнікі зламыснікаў ужо выкарыстоўваюць генератыўны штучны інтэлект для стварэння больш пераканаўчых фішынгавых лістоў, стварэння падробленых персон і глыбокіх відэа для сацыяльнай інжынерыі, распрацоўкі паліморфнага шкоднаснага праграмнага забеспячэння, якое пастаянна змяняецца, каб пазбегнуць выяўлення, і нават аўтаматызацыі аспектаў узлому ( Што такое генератыўны штучны інтэлект у кібербяспецы? - Palo Alto Networks ). Амаль палова (46%) кіраўнікоў у галіне кібербяспекі занепакоеныя тым, што генератыўны штучны інтэлект прывядзе да больш складаных атак барацьбы ( Генеральны штучны інтэлект у кібербяспецы: тэндэнцыі, пагрозы і стратэгіі змякчэння наступстваў ). Гэтая «гонка ўзбраенняў штучнага інтэлекту» азначае, што па меры таго, як абаронцы ўкараняюць штучны інтэлект, зламыснікі не будуць моцна адставаць (насамрэч, яны могуць апярэджваць у некаторых галінах, выкарыстоўваючы нерэгуляваныя інструменты штучнага інтэлекту). Арганізацыі павінны быць гатовыя да пагроз, узмоцненых штучным інтэлектам, якія сустракаюцца часцей, з'яўляюцца больш складанымі і цяжка адсочваюцца.

  • Галюцынацыі і недакладнасць штучнага інтэлекту: Мадэлі генератыўнага штучнага інтэлекту могуць даваць праўдападобныя, але няправільныя або падманлівыя — з'ява, вядомая як галюцынацыя. У кантэксце бяспекі штучны інтэлект можа прааналізаваць інцыдэнт і памылкова вывесці, што прычынай стала пэўная ўразлівасць, або ён можа стварыць няспраўны сцэнар выпраўлення, які не можа стрымаць атаку. Гэтыя памылкі могуць быць небяспечнымі, калі ўспрымаць іх за чыстую манету. Як папярэджвае NTT Data, «генератыўны штучны інтэлект можа праўдападобна выдаваць няпраўдзівы кантэнт, і гэтая з'ява называецца галюцынацыямі... у цяперашні час іх цяжка цалкам ліквідаваць» ( Рызыкі бяспекі генератыўнага штучнага інтэлекту і контрмер, а таксама яго ўплыў на кібербяспеку | NTT DATA Group ). Празмерная залежнасць ад штучнага інтэлекту без праверкі можа прывесці да няправільных намаганняў або ілжывага пачуцця бяспекі. Напрыклад, штучны інтэлект можа ілжыва пазначыць крытычна важную сістэму як бяспечную, калі гэта не так, або, наадварот, выклікаць паніку, «выявіўшы» парушэнне, якога ніколі не было. Для змяншэння гэтай рызыкі неабходна строгая праверка вынікаў штучнага інтэлекту і ўключэнне людзей у працэс прыняцця крытычна важных рашэнняў.

  • Ілжывыя станоўчыя і адмоўныя вынікі: у сувязі з галюцынацыямі, калі мадэль штучнага інтэлекту дрэнна навучаная або настроеная, яна можа перабольшваць дабраякасную актыўнасць як шкоднасную (ілжывыя станоўчыя вынікі) або, што яшчэ горш, прапускаць рэальныя пагрозы (ілжывыя адмоўныя вынікі) ( Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы ). Празмерная колькасць ілжывых папярэджанняў можа перагрузіць каманды бяспекі і прывесці да стомленасці ад папярэджанняў (знішчаючы абяцанае штучным інтэлектам павышэнне эфектыўнасці), у той час як прапушчаныя выяўленні пакідаюць арганізацыю бездакорнай. Наладзіць генератыўныя мадэлі для дасягнення правільнага балансу з'яўляецца складанай задачай. Кожнае асяроддзе ўнікальнае, і штучны інтэлект можа не адразу працаваць аптымальна «з скрынкі». Бесперапыннае навучанне — гэта таксама палка з двума канцамі: калі штучны інтэлект вучыцца на скажонай зваротнай сувязі або са зменлівага асяроддзя, яго дакладнасць можа вагацца. Каманды бяспекі павінны кантраляваць прадукцыйнасць штучнага інтэлекту і карэктаваць парогі або забяспечваць карэкціруючую зваротную сувязь для мадэляў. У кантэкстах з высокімі стаўкамі (напрыклад, выяўленне ўварванняў для крытычна важнай інфраструктуры) можа быць мэтазгодным запускаць прапановы штучнага інтэлекту паралельна з існуючымі сістэмамі на працягу пэўнага часу, каб гарантаваць, што яны ўзгадняюцца і дапаўняюць адзін аднаго, а не супярэчаць адзін аднаму.

  • Канфідэнцыяльнасць і ўцечка дадзеных: Сістэмы генератыўнага штучнага інтэлекту часта патрабуюць вялікіх аб'ёмаў дадзеных для навучання і працы. Калі гэтыя мадэлі заснаваныя на воблаку або не належным чынам ізаляваныя, існуе рызыка ўцечкі канфідэнцыйнай інфармацыі. Карыстальнікі могуць выпадкова перадаваць канфідэнцыйныя дадзеныя або асабістыя дадзеныя ў службу штучнага інтэлекту (падумайце, што вы просіце ChatGPT скласці канфідэнцыйную справаздачу аб інцыдэнце), і гэтыя дадзеныя могуць стаць часткай ведаў мадэлі. Сапраўды, нядаўняе даследаванне паказала, што 55% уваходных дадзеных для інструментаў генератыўнага штучнага інтэлекту ўтрымліваюць канфідэнцыйную або персанальна ідэнтыфікаваную інфармацыю , што выклікае сур'ёзную заклапочанасць з нагоды ўцечкі дадзеных ( Бяспека генератыўнага штучнага інтэлекту: тэндэнцыі, пагрозы і стратэгіі змякчэння ). Акрамя таго, калі штучны інтэлект быў навучаны на ўнутраных дадзеных і да яго запытваюцца пэўнымі спосабамі, ён можа выдаваць часткі гэтых канфідэнцыйных дадзеных камусьці іншаму. Арганізацыі павінны ўкараняць строгую палітыку апрацоўкі дадзеных (напрыклад, выкарыстанне лакальных або прыватных экзэмпляраў штучнага інтэлекту для канфідэнцыйнага матэрыялу) і навучаць супрацоўнікаў не ўстаўляць канфідэнцыйную інфармацыю ў публічныя інструменты штучнага інтэлекту. Таксама ўступаюць у гульню правілы канфідэнцыяльнасці (GDPR і г.д.) - выкарыстанне асабістых дадзеных для навучання штучнага інтэлекту без належнай згоды або абароны можа супярэчыць заканадаўству.

  • Бяспека і маніпуляцыі мадэлямі: Мадэлі генератыўнага штучнага інтэлекту самі могуць стаць мішэнямі. Зламыснікі могуць спрабаваць атруціць мадэлі , перадаючы шкоднасныя або зманлівыя дадзеныя падчас фазы навучання або перанавучання, каб штучны інтэлект засвоіў няправільныя шаблоны ( Як можна выкарыстоўваць генератыўны штучны інтэлект у кібербяспецы ). Напрыклад, зламыснік можа ненаўмысна атруціць дадзеныя разведкі аб пагрозах, каб штучны інтэлект не распазнаваў уласнае шкоднаснае праграмнае забеспячэнне зламысніка як шкоднаснае. Іншая тактыка - гэта ўвядзенне імгненных дадзеных або маніпуляцыя вывадамі , калі зламыснік знаходзіць спосаб уводзіць у штучны інтэлект дадзеныя, якія прымушаюць яго паводзіць сябе непрадбачаным чынам - магчыма, ігнараваць яго меры бяспекі або раскрываць інфармацыю, якую ён не павінен раскрываць (напрыклад, унутраныя падказкі або дадзеныя). Акрамя таго, існуе рызыка ўхілення ад мадэлі : зламыснікі ствараюць уводныя дадзеныя, спецыяльна прызначаныя для падману штучнага інтэлекту. Мы бачым гэта ў прыкладах канкурэнтнай барацьбы - злёгку парушаныя дадзеныя, якія чалавек успрымае як нармальныя, але штучны інтэлект няправільна класіфікуе. Забеспячэнне бяспекі ланцужка паставак штучнага інтэлекту (цэласнасць дадзеных, кантроль доступу да мадэлі, тэставанне на ўстойлівасць да спаборніцтваў) з'яўляецца новай, але неабходнай часткай кібербяспекі пры разгортванні гэтых інструментаў ( Што такое генератыўны штучны інтэлект у кібербяспецы? - Palo Alto Networks ).

  • Празмерная залежнасць і эрозія навыкаў: Існуе меншая рызыка таго, што арганізацыі могуць стаць празмерна залежнымі ад штучнага інтэлекту і дазволіць чалавечым навыкам атрафаваць. Калі малодшыя аналітыкі пачнуць сляпа давяраць вынікам штучнага інтэлекту, яны могуць не развіць крытычнае мысленне і інтуіцыю, неабходныя для таго, каб у выпадку, калі штучны інтэлект недаступны або памыляецца. Варта пазбягаць сцэнарыя, калі каманда бяспекі мае выдатныя інструменты, але не ведае, як імі карыстацца, калі гэтыя інструменты выйдуць з ладу (падобна пілотам, якія празмерна спадзяюцца на аўтапілот). Рэгулярныя трэніроўкі без дапамогі штучнага інтэлекту і выхаванне ўсведамлення таго, што штучны інтэлект — гэта памочнік, а не бездакорны аракул, важныя для падтрымання пільнасці аналітыкаў-людзей. Людзі павінны заставацца тымі, хто прымае канчатковыя рашэнні, асабліва пры прыняцці рашэнняў з вялікім уплывам.

  • Этычныя праблемы і праблемы адпаведнасці: выкарыстанне штучнага інтэлекту ў кібербяспецы выклікае этычныя пытанні і можа выклікаць праблемы з выкананнем рэгулятыўных патрабаванняў. Напрыклад, калі сістэма штучнага інтэлекту памылкова абвінавачвае супрацоўніка ў зламысным інсайдэрскім злачынстве з-за анамаліі, гэта можа несправядліва пашкодзіць рэпутацыі або кар'еры гэтага чалавека. Рашэнні, прынятыя штучным інтэлектам, могуць быць непразрыстымі (праблема «чорнай скрыні»), што ўскладняе тлумачэнне аўдытарам або рэгулятарам, чаму былі прыняты пэўныя меры. Па меры таго, як кантэнт, створаны штучным інтэлектам, становіцца ўсё больш распаўсюджаным, забеспячэнне празрыстасці і падтрыманне падсправаздачнасці маюць вырашальнае значэнне. Рэгулятары пачынаюць уважліва сачыць за штучным інтэлектам — напрыклад, Закон ЕС аб ​​штучным інтэлекце ўводзіць патрабаванні да сістэм штучнага інтэлекту «высокарызыкоўных», і штучны інтэлект у галіне кібербяспекі можа трапіць у гэтую катэгорыю. Кампаніям трэба будзе арыентавацца ў гэтых правілах і, магчыма, прытрымлівацца такіх стандартаў, як NIST AI Risk Management Framework, каб адказна выкарыстоўваць генератыўны штучны інтэлект ( Як генератыўны штучны інтэлект можа выкарыстоўвацца ў кібербяспецы? 10 рэальных прыкладаў ). Адпаведнасць распаўсюджваецца і на ліцэнзаванне: выкарыстанне мадэляў з адкрытым зыходным кодам або старонніх мадэляў можа мець умовы, якія абмяжоўваюць пэўныя віды выкарыстання або патрабуюць сумеснага выкарыстання паляпшэнняў.

Карацей кажучы, генератыўны штучны інтэлект — гэта не чароўная куля : калі яго не ўкараняць старанна, ён можа прыўнесці новыя ўразлівасці, нават калі вырашае іншыя. Даследаванне Сусветнага эканамічнага форуму 2024 года паказала, што ~47% арганізацый называюць дасягненні ў галіне генератыўнага штучнага інтэлекту з боку зламыснікаў асноўнай праблемай, што робіць яго «найбольш трывожным уплывам генератыўнага штучнага інтэлекту» на кібербяспеку ( [PDF] Глабальны агляд кібербяспекі 2025 | Сусветны эканамічны форум ) ( Генеральны штучны інтэлект у кібербяспецы: усебаковы агляд магістратуры па кібербяспецы... ). Таму арганізацыі павінны прыняць збалансаваны падыход: выкарыстоўваць перавагі штучнага інтэлекту, адначасова строга кіруючы гэтымі рызыкамі праз кіраванне, тэсціраванне і кантроль з боку чалавека. Далей мы абмяркуем, як практычна дасягнуць гэтага балансу.

Перспектывы на будучыню: змяненне ролі генератыўнага штучнага інтэлекту ў кібербяспецы

Зазіраючы ў будучыню, можна меркаваць, што генератыўны штучны інтэлект стане неад'емнай часткай стратэгіі кібербяспекі, а таксама інструментам, які кіберзлачынцы будуць працягваць выкарыстоўваць. Дынаміка гульні ў кошкі-мышкі будзе паскорацца, і штучны інтэлект будзе па абодва бакі барацьбітоў. Вось некаторыя прагнозы адносна таго, як генератыўны штучны інтэлект можа паўплываць на кібербяспеку ў бліжэйшыя гады:

  • Кіберабарона з дапоўненым штучным інтэлектам становіцца стандартам: да 2025 года і пазней можна чакаць, што большасць сярэдніх і буйных арганізацый уключаць інструменты на базе штучнага інтэлекту ў свае аперацыі бяспекі. Гэтак жа, як антывірусы і брандмаўэры з'яўляюцца стандартнымі сёння, копілоты і сістэмы выяўлення анамалій на базе штучнага інтэлекту могуць стаць базавымі кампанентамі архітэктур бяспекі. Гэтыя інструменты, верагодна, стануць больш спецыялізаванымі — напрыклад, асобныя мадэлі штучнага інтэлекту, дасканала настроеныя для бяспекі воблака, для маніторынгу прылад Інтэрнэту рэчаў, для бяспекі кода прыкладанняў і гэтак далей, і ўсё гэта будзе працаваць узгоднена. Як адзначаецца ў адным прагнозе, «у 2025 годзе генератыўны штучны інтэлект стане неад'емнай часткай кібербяспекі, дазваляючы арганізацыям праактыўна абараняцца ад складаных і развіваючыхся пагроз» ( Як генератыўны штучны інтэлект можа быць выкарыстаны ў кібербяспецы ). Штучны інтэлект палепшыць выяўленне пагроз у рэжыме рэальнага часу, аўтаматызуе многія дзеянні па рэагаванні і дапаможа камандам бяспекі кіраваць значна большымі аб'ёмамі дадзеных, чым яны маглі б уручную.

  • Бесперапыннае навучанне і адаптацыя: будучыя генератыўныя сістэмы штучнага інтэлекту ў кіберпрасторы будуць лепш вучыцца на хаду з новых інцыдэнтаў і інфармацыі аб пагрозах, абнаўляючы сваю базу ведаў амаль у рэжыме рэальнага часу. Гэта можа прывесці да сапраўды адаптыўнай абароны — уявіце сабе штучны інтэлект, які даведваецца пра новую фішынгавую кампанію, якая атакуе іншую кампанію раніцай, а да другой паловы дня ўжо адрэагаваў на карэкціроўку фільтраў электроннай пошты вашай кампаніі. Воблачныя службы бяспекі штучнага інтэлекту могуць спрыяць такому калектыўнаму навучанню, калі ананімная інфармацыя з адной арганізацыі прыносіць карысць усім падпісчыкам (падобна абмену інфармацыяй аб пагрозах, але аўтаматызавана). Аднак гэта запатрабуе асцярожнага абыходжання, каб пазбегнуць абмену канфідэнцыйнай інфармацыяй і прадухіліць унясенне зламыснікамі няправільных дадзеных у агульныя мадэлі.

  • Зліццё талентаў у галіне штучнага інтэлекту і кібербяспекі: Набор навыкаў спецыялістаў па кібербяспецы будзе развівацца і ўключаць у сябе валоданне штучным інтэлектам і навукай аб дадзеных. Гэтак жа, як сённяшнія аналітыкі вывучаюць мовы запытаў і сцэнарыі, заўтрашнія аналітыкі могуць рэгулярна ўдасканальваць мадэлі штучнага інтэлекту або пісаць «схемы» для выканання з дапамогай штучнага інтэлекту. Мы можам убачыць новыя пасады, такія як «трэнер па бяспецы штучнага інтэлекту» або «інжынер па кібербяспецы штучнага інтэлекту» — людзей, якія спецыялізуюцца на адаптацыі інструментаў штучнага інтэлекту да патрэб арганізацыі, праверцы іх прадукцыйнасці і забеспячэнні іх бяспечнай працы. З іншага боку, меркаванні кібербяспекі будуць усё больш уплываць на распрацоўку штучнага інтэлекту. Сістэмы штучнага інтэлекту будуць стварацца з выкарыстаннем функцый бяспекі з нуля (бяспечная архітэктура, выяўленне несанкцыянаваных умяшанняў, журналы аўдыту для рашэнняў штучнага інтэлекту і г.д.), а структуры для надзейнага штучнага інтэлекту (справядлівыя, тлумачальныя, надзейныя і бяспечныя) будуць кіраваць іх разгортваннем у крытычна важных для бяспекі кантэкстах.

  • Больш складаныя атакі з выкарыстаннем штучнага інтэлекту: На жаль, ландшафт пагроз таксама будзе развівацца разам з штучным інтэлектам. Мы чакаем больш частага выкарыстання штучнага інтэлекту для выяўлення ўразлівасцяў нулявога дня, стварэння мэтанакіраваных фішынгавых атак (напрыклад, штучны інтэлект, які збірае сацыяльныя сеткі для стварэння ідэальна падабранай прынады) і стварэння пераканаўчых фальшывых галасоў або відэа для абыходу біяметрычнай аўтэнтыфікацыі або здзяйснення махлярства. Могуць з'явіцца аўтаматызаваныя хакерскія агенты, якія змогуць самастойна выконваць шматэтапныя атакі (разведку, эксплуатацыю, латэральнае перамяшчэнне і г.д.) з мінімальным кантролем чалавека. Гэта будзе ціснуць на абаронцаў, каб яны таксама спадзяваліся на штучны інтэлект — па сутнасці, аўтаматызацыя супраць аўтаматызацыі . Некаторыя атакі могуць адбывацца з хуткасцю машыны, напрыклад, боты штучнага інтэлекту спрабуюць тысячу перастановак фішынгавых лістоў, каб убачыць, якая з іх праходзіць міма фільтраў. Кіберабарона павінна будзе працаваць з падобнай хуткасцю і гнуткасцю, каб не адставаць ( Што такое генератыўны штучны інтэлект у кібербяспецы? - Palo Alto Networks ).

  • Рэгуляванне і этычны штучны інтэлект у сферы бяспекі: па меры таго, як штучны інтэлект будзе глыбока ўкараняцца ў функцыі кібербяспекі, будзе больш уважлівы кантроль і, магчыма, рэгуляванне, каб гарантаваць адказнае выкарыстанне гэтых сістэм штучнага інтэлекту. Мы можам чакаць стварэння спецыфічных для штучнага інтэлекту стандартаў і рамок бяспекі. Урады могуць усталяваць рэкамендацыі па празрыстасці, напрыклад, патрабаваць, каб значныя рашэнні па бяспецы (напрыклад, спыненне доступу супрацоўніка з-за падазрэнні ў шкоднаснай дзейнасці) не маглі прымацца штучным інтэлектам самастойна без праверкі чалавекам. Таксама могуць існаваць сертыфікаты для прадуктаў бяспекі на аснове штучнага інтэлекту, каб гарантаваць пакупнікам, што штучны інтэлект быў ацэнены на прадмет прадузятасці, надзейнасці і бяспекі. Акрамя таго, можа развівацца міжнароднае супрацоўніцтва вакол кіберпагроз, звязаных са штучным інтэлектам; напрыклад, пагадненні аб барацьбе з дэзінфармацыяй, створанай штучным інтэлектам, або нормы супраць пэўнай кіберзброі, заснаванай на штучным інтэлекце.

  • Інтэграцыя з больш шырокімі штучным інтэлектам і ІТ-экасістэмамі: генератыўны штучны інтэлект у кібербяспецы, верагодна, будзе інтэгравацца з іншымі сістэмамі штучнага інтэлекту і інструментамі кіравання ІТ. Напрыклад, штучны інтэлект, які кіруе аптымізацыяй сеткі, можа працаваць са штучным інтэлектам бяспекі, каб гарантаваць, што змены не адкрыюць лазеек. Бізнес-аналітыка на аснове штучнага інтэлекту можа абменьвацца дадзенымі са штучным інтэлектам бяспекі для карэляцыі анамалій (напрыклад, рэзкага падзення продажаў з магчымай праблемай вэб-сайта з-за атакі). Па сутнасці, штучны інтэлект не будзе жыць у ізаляваным стане — ён будзе часткай большай інтэлектуальнай структуры аперацый арганізацыі. Гэта адкрывае магчымасці для комплекснага кіравання рызыкамі, дзе аперацыйныя дадзеныя, дадзеныя аб пагрозах і нават дадзеныя аб фізічнай бяспецы могуць быць аб'яднаны штучным інтэлектам, каб атрымаць поўнае ўяўленне аб стане бяспекі арганізацыі.

У доўгатэрміновай перспектыве ёсць надзея, што генератыўны штучны інтэлект дапаможа зрушыць раўнавагу на карысць абаронцаў. Спраўляючыся з маштабам і складанасцю сучасных ІТ-асяроддзяў, штучны інтэлект можа зрабіць кіберпрастору больш абароненай. Аднак гэта шлях, і будуць узнікаць цяжкасці, пакуль мы ўдасканальваем гэтыя тэхналогіі і вучымся належным чынам давяраць ім. Арганізацыі, якія застаюцца ў курсе падзей і інвестуюць у адказнае ўкараненне штучнага інтэлекту для бяспекі, хутчэй за ўсё, будуць найлепшымі ў падрыхтоўцы да пагроз будучыні.

Як адзначалася ў нядаўняй справаздачы Gartner аб тэндэнцыях кібербяспекі, «з'яўленне генератыўных выпадкаў выкарыстання (і рызык) штучнага інтэлекту стварае ціск на трансфармацыю» ( Тэндэнцыі кібербяспекі: устойлівасць праз трансфармацыю — Gartner ). Тыя, хто адаптуецца, будуць выкарыстоўваць штучны інтэлект як магутнага саюзніка; тыя, хто адстае, могуць апынуцца апярэджанымі праціўнікамі, узброенымі штучным інтэлектам. Наступныя некалькі гадоў стануць паваротным часам у вызначэнні таго, як штучны інтэлект зменіць поле кібербітвы.

Практычныя высновы па ўкараненні генератыўнага штучнага інтэлекту ў кібербяспецы

Для кампаній, якія ацэньваюць, як выкарыстоўваць генератыўны штучны інтэлект у сваёй стратэгіі кібербяспекі, вось некалькі практычных высноў і рэкамендацый, якія дапамогуць ім адказна і эфектыўна ўкараніць яго:

  1. Пачніце з адукацыі і навучання: пераканайцеся, што ваша каманда бяспекі (і шырэйшыя ІТ-спецыялісты) разумеюць, што можа і не можа рабіць генератыўны штучны інтэлект. Правядзіце навучанне асновам інструментаў бяспекі на аснове штучнага інтэлекту і абнавіце свае праграмы павышэння дасведчанасці аб бяспецы для ўсіх супрацоўнікаў, каб яны ахоплівалі пагрозы, якія выкарыстоўваюць штучны інтэлект. Напрыклад, навучыце супрацоўнікаў, як штучны інтэлект можа генераваць вельмі пераканаўчыя фішынгавыя афёры і глыбокія фэйкавыя званкі. Адначасова навучыце супрацоўнікаў бяспечным і дазволеным спосабам выкарыстання інструментаў штучнага інтэлекту ў іх працы. Добра інфармаваныя карыстальнікі з меншай верагоднасцю будуць няправільна абыходзіцца са штучным інтэлектам або стаць ахвярамі нападаў, узмоцненых штучным інтэлектам ( Як генератыўны штучны інтэлект можа быць выкарыстаны ў кібербяспецы? 10 рэальных прыкладаў ).

  2. Вызначце выразныя палітыкі выкарыстання штучнага інтэлекту: стаўцеся да генератыўнага штучнага інтэлекту як да любой магутнай тэхналогіі — з кіраваннем. Распрацуйце палітыку, якая вызначае, хто можа выкарыстоўваць інструменты штучнага інтэлекту, якія інструменты санкцыянаваныя і для якіх мэт. Уключыце рэкамендацыі па апрацоўцы канфідэнцыйных дадзеных (напрыклад, забарона перадачы канфідэнцыйных дадзеных знешнім службам штучнага інтэлекту), каб прадухіліць уцечкі. Напрыклад, вы можаце дазволіць толькі членам каманды бяспекі выкарыстоўваць унутранага памочніка штучнага інтэлекту для рэагавання на інцыдэнты, а аддзел маркетынгу можа выкарыстоўваць праверанага штучнага інтэлекту для кантэнту — усе астатнія абмежаваныя. Многія арганізацыі зараз відавочна разглядаюць генератыўны штучны інтэлект у сваіх ІТ-палітыках, і вядучыя органы па стандартызацыі заахвочваюць палітыку бяспечнага выкарыстання, а не прамыя забароны ( Як можна выкарыстоўваць генератыўны штучны інтэлект у кібербяспецы? 10 рэальных прыкладаў ). Абавязкова давядзіце гэтыя правілы і абгрунтаванне іх выкарыстання да ўсіх супрацоўнікаў.

  3. Змякчэнне «ценявога штучнага інтэлекту» і маніторынг выкарыстання: падобна ценявым ІТ, «ценявы штучны інтэлект» узнікае, калі супрацоўнікі пачынаюць выкарыстоўваць інструменты або паслугі штучнага інтэлекту без ведама ІТ-аддзела (напрыклад, распрацоўшчык выкарыстоўвае несанкцыянаванага памочніка па напісанні кода са штучным інтэлектам). Гэта можа прывесці да нябачных рызык. Укараніце меры для выяўлення і кантролю несанкцыянаванага выкарыстання штучнага інтэлекту . Маніторынг сеткі можа пазначаць падключэнні да папулярных API штучнага інтэлекту, а апытанні або аўдыты інструментаў могуць выявіць, што выкарыстоўваюць супрацоўнікі. Прапануйце зацверджаныя альтэрнатывы, каб у добранамераных супрацоўнікаў не ўзнікала спакусы дзейнічаць неналежным чынам (напрыклад, прадастаўце афіцыйны ўліковы запіс ChatGPT Enterprise, калі людзі лічаць яго карысным). Выяўляючы выкарыстанне штучнага інтэлекту, каманды бяспекі могуць ацэньваць і кіраваць рызыкамі. Маніторынг таксама мае ключавое значэнне — фіксуйце дзейнасць і вынікі інструментаў штучнага інтэлекту як мага часцей, каб быў след аўдыту рашэнняў, на якія паўплываў штучны інтэлект ( Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы? 10 рэальных прыкладаў ).

  4. Выкарыстоўвайце штучны інтэлект у абароне — не адставайце: прызнайце, што зламыснікі будуць выкарыстоўваць штучны інтэлект, таму ваша абарона таксама павінна яго выкарыстоўваць. Вызначце некалькі найбольш уплывовых абласцей, дзе генератыўны штучны інтэлект можа неадкладна дапамагчы вашым аперацыям бяспекі (магчыма, трыяж папярэджанняў або аўтаматычны аналіз журналаў) і запусціце пілотныя праекты. Павялічце сваю абарону з дапамогай хуткасці і маштабу штучнага інтэлекту, каб супрацьстаяць хутка развіваючымся пагрозам ( Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы? 10 рэальных прыкладаў ). Нават простыя інтэграцыі, такія як выкарыстанне штучнага інтэлекту для абагульнення справаздач аб шкоднасных праграмах або генерацыі запытаў на пошук пагроз, могуць зэканоміць гадзіны аналітыкаў. Пачніце з малога, ацаніце вынікі і паўтарыце. Поспехі будуць грунтоўнымі для больш шырокага ўкаранення штучнага інтэлекту. Мэта складаецца ў тым, каб выкарыстоўваць штучны інтэлект як памнажальнік сілы — напрыклад, калі фішынгавыя атакі перагружаюць вашу службу падтрымкі, разгарніце класіфікатар электроннай пошты на аснове штучнага інтэлекту, каб праактыўна скараціць гэты аб'ём.

  5. Інвестуйце ў бяспечныя і этычныя практыкі штучнага інтэлекту: пры ўкараненні генератыўнага штучнага інтэлекту прытрымлівайцеся бяспечных практык распрацоўкі і разгортвання. Выкарыстоўвайце прыватныя або самастойна размешчаныя мадэлі для канфідэнцыйных задач, каб захаваць кантроль над дадзенымі. Калі вы выкарыстоўваеце староннія сэрвісы штучнага інтэлекту, праглядзіце іх меры бяспекі і прыватнасці (шыфраванне, палітыку захоўвання дадзеных і г.д.). Укараніце структуры кіравання рызыкамі штучнага інтэлекту (напрыклад, Структуру кіравання рызыкамі штучнага інтэлекту NIST або кіраўніцтва ISO/IEC), каб сістэматычна вырашаць такія пытанні, як прадузятасць, тлумачальнасць і надзейнасць у вашых інструментах штучнага інтэлекту ( Як генератыўны штучны інтэлект можа быць выкарыстаны ў кібербяспецы? 10 рэальных прыкладаў ). Таксама плануйце абнаўленні/выпраўленні мадэлі ў рамках тэхнічнага абслугоўвання - мадэлі штучнага інтэлекту таксама могуць мець «ўразлівасці» (напрыклад, ім можа спатрэбіцца перанавучанне, калі яны пачнуць дрэйфаваць або калі будзе выяўлены новы тып атакі праціўніка на мадэль). Уключаючы бяспеку і этыку ў выкарыстанне штучнага інтэлекту, вы ствараеце давер да вынікаў і забяспечваеце адпаведнасць новым правілам.

  6. Трымайце людзей у курсе падзей: выкарыстоўвайце штучны інтэлект для падтрымкі, а не для поўнай замены чалавечага меркавання ў кібербяспецы. Вызначце моманты прыняцця рашэнняў, дзе патрабуецца праверка чалавекам (напрыклад, штучны інтэлект можа скласці справаздачу аб інцыдэнце, але аналітык праглядае яе перад распаўсюджваннем; або штучны інтэлект можа прапанаваць заблакаваць уліковы запіс карыстальніка, але чалавек ухваляе гэтае дзеянне). Гэта не толькі прадухіляе некантраляванне памылак штучнага інтэлекту, але і дапамагае вашай камандзе вучыцца ў штучнага інтэлекту і наадварот. Заахвочвайце сумесны працоўны працэс: аналітыкі павінны адчуваць сябе камфортна, аспрэчваючы вынікі працы штучнага інтэлекту і праводзячы праверкі на надзейнасць. З часам гэты дыялог можа палепшыць як штучны інтэлект (праз зваротную сувязь), так і навыкі аналітыкаў. Па сутнасці, распрацоўвайце свае працэсы такім чынам, каб моцныя бакі штучнага інтэлекту і чалавека дапаўнялі адзін аднаго — штучны інтэлект апрацоўвае аб'ём і хуткасць, людзі апрацоўваюць неадназначнасць і канчатковыя рашэнні.

  7. Вымярэнне, маніторынг і карэкціроўка: Нарэшце, ставіцеся да сваіх генератыўных інструментаў штучнага інтэлекту як да жывых кампанентаў вашай экасістэмы бяспекі. Пастаянна вымярайце іх прадукцыйнасць — ці скарачаюць яны час рэагавання на інцыдэнты? Выяўляюць пагрозы раней? Як змяняецца тэндэнцыя да павелічэння колькасці ілжыва спрацоўных вынікаў? Запытвайце зваротную сувязь ад каманды: ці карысныя рэкамендацыі штучнага інтэлекту, ці яны ствараюць шум? Выкарыстоўвайце гэтыя паказчыкі для ўдасканалення мадэляў, абнаўлення дадзеных навучання або карэкціроўкі таго, як інтэграваны штучны інтэлект. Кіберпагрозы і патрэбы бізнесу развіваюцца, і вашы мадэлі штучнага інтэлекту павінны перыядычна абнаўляцца або перавучвацца, каб заставацца эфектыўнымі. Майце план кіравання мадэллю, у тым ліку хто адказвае за яе абслугоўванне і як часта яна пераглядаецца. Актыўна кіруючы жыццёвым цыклам штучнага інтэлекту, вы гарантуеце, што ён застанецца актывам, а не абавязкам.

У заключэнне, генератыўны штучны інтэлект можа значна палепшыць магчымасці кібербяспекі, але паспяховае ўкараненне патрабуе прадуманага планавання і пастаяннага кантролю. Кампаніі, якія навучаюць сваіх супрацоўнікаў, усталёўваюць выразныя рэкамендацыі і інтэгруюць штучны інтэлект збалансаваным і бяспечным чынам, атрымаюць плён у выглядзе больш хуткага і разумнага кіравання пагрозамі. Гэтыя высновы забяспечваюць дарожную карту: спалучаць вопыт чалавека з аўтаматызацыяй штучнага інтэлекту, ахопліваць асновы кіравання і падтрымліваць гнуткасць, паколькі як тэхналогія штучнага інтэлекту, так і ландшафт пагроз непазбежна развіваюцца.

Зрабіўшы гэтыя практычныя крокі, арганізацыі могуць упэўнена адказаць на пытанне «Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы?» — не толькі ў тэорыі, але і ў паўсядзённай практыцы — і тым самым умацаваць сваю абарону ў нашым усё больш лічбавым свеце, які залежыць ад штучнага інтэлекту. ( Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы )

Тэхнічныя дакументы, якія вам могуць спадабацца пасля гэтага:

🔗 Прафесіі, якія штучны інтэлект не можа замяніць, і якія прафесіі заменіць штучны інтэлект?
Даведайцеся пра глабальны погляд на тое, якія прафесіі абаронены ад аўтаматызацыі, а якія не.

🔗 Ці можа штучны інтэлект прадказваць фондавы рынак?
Больш падрабязны погляд на абмежаванні, прарывы ​​і міфы вакол здольнасці штучнага інтэлекту прагназаваць рухі рынку.

🔗 На што можа спадзявацца генератыўны штучны інтэлект без умяшання чалавека?
Зразумейце, дзе штучны інтэлект можа працаваць самастойна, а дзе кантроль чалавека ўсё яшчэ неабходны.

Назад да блога