Кароткі адказ: штучны інтэлект не цалкам заменіць кібербяспеку, але возьме на сябе значную частку паўтаральнай працы па SOC і інжынерыі бяспекі. Выкарыстоўваючыся ў якасці сродку падаўлення шуму і абагульнення — з удзелам чалавека — ён паскарае трыяж і прыярытэтызацыю; калі яго разглядаць як аракул, ён можа ўнесці рызыкоўную ілжывую ўпэўненасць.
Асноўныя высновы:
Сфера прымянення : Штучны інтэлект замяняе задачы і працоўныя працэсы, а не саму прафесію ці адказнасць.
Скарачэнне працы : выкарыстоўвайце штучны інтэлект для кластэрызацыі абвестак, кароткіх зводак і сартавання па шаблонах журналаў.
Уласнасць за прыняцце рашэнняў : Захоўвайце людзей для забеспячэння схільнасці да рызыкі, кіравання інцыдэнтамі і пошуку складаных кампрамісаў.
Устойлівасць да злоўжыванняў : распрацоўка для хуткага ўвядзення, атручвання і спроб ухілення ад дзеянняў суперніка.
Кіраванне : Забяспечваць абмежаванні дадзеных, магчымасць праверкі і спрэчныя змены, зробленыя чалавекам, у інструментах.

Артыкулы, якія вам могуць спадабацца пасля гэтага:
🔗 Як генератыўны штучны інтэлект выкарыстоўваецца ў кібербяспецы
Практычныя спосабы, як штучны інтэлект паляпшае выяўленне, рэагаванне і прадухіленне пагроз.
🔗 Інструменты штучнага інтэлекту для кібербяспекі на пранікненне
Найлепшыя рашэнні на базе штучнага інтэлекту для аўтаматызацыі тэсціравання і пошуку ўразлівасцяў.
🔗 Ці небяспечны штучны інтэлект? Рызыкі і рэаліі
Выразны погляд на пагрозы, міфы і адказныя меры бяспекі штучнага інтэлекту.
🔗 Кіраўніцтва па найлепшых інструментах бяспекі штучнага інтэлекту
Найлепшыя інструменты бяспекі з выкарыстаннем штучнага інтэлекту для абароны сістэм і дадзеных.
«Замена» рамкі — гэта пастка 😅
Калі людзі кажуць «Ці можа штучны інтэлект замяніць кібербяспеку?» , яны звычайна маюць на ўвазе адну з трох рэчаў:
-
Замяніць аналітыкаў (людзі не патрэбныя)
-
Заменіце інструменты (адна платформа штучнага інтэлекту робіць усё)
-
Замена вынікаў (менш парушэнняў, менш рызык)
Штучны інтэлект наймацнейшы ў замене паўтаральных намаганняў і сцісканні часу прыняцця рашэнняў. Найслабейшы ён у замене падсправаздачнасці, кантэксту і меркаванняў. Бяспека — гэта не толькі выяўленне — гэта складаныя кампрамісы, бізнес-абмежаванні, палітыка (цьфу) і паводзіны людзей.
Ведаеце, як гэта бывае — узлом быў не з-за «адсутнасці папярэджанняў». Гэта быў з-за таго, што хтосьці не паверыў у важнасць папярэджання. 🙃
Дзе штучны інтэлект ужо «замяняе» працу ў сферы кібербяспекі (на практыцы) ⚙️
Штучны інтэлект ужо бярэ на сябе пэўныя катэгорыі працы, нават калі арганізацыйная схема выглядае раней.
1) Трыяж і кластарызацыя папярэджанняў
-
Групаванне падобных папярэджанняў у адзін інцыдэнт
-
Дэдублікацыя шумных сігналаў
-
Рэйтынг па верагоднасці ўздзеяння
Гэта важна, бо падчас трыяжу людзі губляюць волю да жыцця. Калі штучны інтэлект хоць крыху зменшыць шум, гэта як выключыць пажарную сігналізацыю, якая крычала тыднямі 🔥🔕
2) Аналіз журналаў і выяўленне анамалій
-
Выяўленне падазроных заканамернасцей на хуткасці машыны
-
Пазначае «гэта незвычайна ў параўнанні з базавым узроўнем»
Гэта не ідэальна, але можа быць карысным. Штучны інтэлект падобны да металадэтэктара на пляжы — ён шмат пішчыць, і часам гэта вечка ад бутэлькі, але часам гэта пярсцёнак 💍… або скампраметаваны токен адміністратара.
3) Класіфікацыя шкоднасных праграм і фішынгу
-
Класіфікацыя ўкладанняў, URL-адрасоў, даменаў
-
Выяўленне падобных брэндаў і шаблонаў падробкі
-
Аўтаматызацыя зводак вердыктаў пясочніцы
4) Прыярытэзацыя кіравання ўразлівасцямі
Не «якія CVE існуюць» — мы ўсе ведаем, што іх занадта шмат. Штучны інтэлект дапамагае адказаць:
-
Якія, верагодна, можна тут выкарыстаць. EPSS (FIRST)
-
Якія падвяргаюцца ўздзеянню звонку
-
Якія адпавядаюць каштоўным актывам. Каталог CISA KEV
-
Якія трэба спачатку абнавіць, не падпальваючы арганізацыю. NIST SP 800-40 Rev. 4 (Кіраванне карпаратыўнымі абнаўленнямі)
І так, людзі таксама маглі б гэта рабіць — калі б час быў бясконцым і ніхто ніколі не браў адпачынак.
Што робіць штучны інтэлект добрай версіяй у кібербяспецы 🧠
Гэта тая частка, якую людзі прапускаюць, а потым вінавацяць «штучны інтэлект», быццам гэта адзіны прадукт з пачуццямі.
Добрая версія штучнага інтэлекту ў кібербяспецы, як правіла, мае наступныя рысы:
-
Высокая дысцыпліна сігнал/шум
-
Ён павінен памяншаць шум, а не нарошчваць яго лішнім мудрагелістай фразоўкай.
-
-
Тлумачнасць, якая дапамагае на практыцы
-
Не раман. Не вібрацыі. Сапраўдныя падказкі: што бачыў, чаму хвалюецца, што змянілася.
-
-
Цесная інтэграцыя з вашым асяроддзем
-
IAM, тэлеметрыя канчатковых кропак, стан воблака, сістэма рэгістрацыі заявак, інвентарызацыя актываў… непрыкметныя рэчы.
-
-
Убудаваная чалавечая абарона
-
Аналітыкам трэба выпраўляць гэта, наладжваць, а часам ігнараваць. Як малодшы аналітык, які ніколі не спіць, але часам панікуе.
-
-
Бяспечнае апрацоўванне дадзеных
-
Выразныя межы таго, што захоўваецца, навучаецца або ўтрымліваецца. NIST AI RMF 1.0
-
-
Устойлівасць да маніпуляцый
-
Зламыснікі будуць спрабаваць імгненнае ўвядзенне, атручванне і падман. Яны заўсёды гэта робяць. OWASP LLM01: Імгненнае ўвядзенне Вялікабрытаніі Кодэкс практыкі кібербяспекі штучнага інтэлекту
-
Будзем шчырымі — шмат якія сістэмы бяспекі на аснове штучнага інтэлекту не працуюць, таму што яны навучаны гучаць упэўнена, а не правільна. Упэўненасць — гэта не кантроль. 😵💫
Дэталі, якія штучны інтэлект з цяжкасцю замяняе — і гэта важней, чым здаецца 🧩
Вось нязручная праўда: кібербяспека — гэта не толькі тэхнічнае пытанне. Яна сацыяльна-тэхнічнае. Гэта людзі плюс сістэмы плюс стымулы.
Штучны інтэлект змагаецца з:
1) Бізнес-кантэкст і схільнасць да рызыкі
Рашэнні па бяспецы рэдка бываюць тыпу «ці гэта дрэнна». Яны хутчэй падобныя на:
-
Ці дастаткова сур'ёзная сітуацыя, каб спыніць прыбытак
-
Ці варта парушаць канвеер разгортвання
-
Ці пагодзіцца кіраўніцтва на прастой з-за гэтага
Штучны інтэлект можа дапамагчы, але не можа прызнаць гэта. Хтосьці падпісвае рашэнне. Хтосьці атрымлівае званок а 2-й гадзіне ночы 📞
2) Кіраванне інцыдэнтам і каардынацыя паміж камандамі
Падчас рэальных інцыдэнтаў «праца» заключаецца ў наступным:
-
Прыцягненне патрэбных людзей у пакой
-
Абапіраючыся на факты без панікі
-
Кіраванне камунікацыямі, доказамі, юрыдычнымі пытаннямі, паведамленнямі з кліентамі NIST SP 800-61 (Кіраўніцтва па апрацоўцы інцыдэнтаў)
Штучны інтэлект, вядома, можа скласці графік або абагульніць журналы. Замена кіраўніцтва пад ціскам — гэта… аптымістычна. Гэта як папрасіць калькулятар правесці пажарную інструктаж.
3) Мадэляванне і архітэктура пагроз
Мадэляванне пагроз — гэта часткова логіка, часткова творчасць, часткова параноя (у асноўным здаровая параноя).
-
Пералік таго, што можа пайсці не так
-
Прадбачанне таго, што зробіць зламыснік
-
Выбар найтаннейшага кантролю, які змяняе матэматычныя разлікі атакуючага
Штучны інтэлект можа падказваць заканамернасці, але сапраўдная каштоўнасць заключаецца ў веданні вашых сістэм, вашых людзей, вашых хуткіх спосабаў вырашэння праблем і вашых асаблівых залежнасцей у мінулым.
4) Чалавечы фактар і культура
Фішынг, паўторнае выкарыстанне ўліковых дадзеных, ценявыя ІТ-спецыялісты, нядбайная праверка доступу — гэта праблемы людзей, якія носяць тэхнічныя касцюмы 🎭.
Штучны інтэлект можа выявіць, але не можа выправіць, чаму арганізацыя паводзіць сябе так, як яна паводзіць сябе.
Зламыснікі таксама выкарыстоўваюць штучны інтэлект — таму гульнявое поле нахіляецца ўбок 😈🤖
Любая дыскусія аб замене кібербяспекі павінна ўключаць відавочнае: зламыснікі не стаяць на месцы.
Штучны інтэлект дапамагае зламыснікам:
-
Пішыце больш пераканаўчыя фішынгавыя паведамленні (менш парушанай граматыкі, больш кантэксту). Папярэджанне ФБР аб фішынгу з выкарыстаннем штучнага інтэлекту. IC3 PSA аб генератыўным махлярстве/фішынгу з
-
Хутчэйшая генерацыя поліморфных варыяцый шкоднасных праграм. Справаздачы аб разведцы пагроз OpenAI (прыклады шкоднаснага выкарыстання).
-
Аўтаматызацыя разведкі і сацыяльнай інжынерыі Еўрапола «Справаздача ChatGPT» (агляд злоўжыванняў)
-
Маштабаваць спробы танна
Такім чынам, укараненне штучнага інтэлекту абаронцамі не з'яўляецца абавязковым у доўгатэрміновай перспектыве. Гэта хутчэй як... вы бярэце з сабой ліхтарык, таму што другі бок толькі што атрымаў акуляры начнога бачання. Нязграбная метафара. Усё яшчэ ў пэўнай ступені праўда.
Акрамя таго, зламыснікі будуць атакаваць самі сістэмы штучнага інтэлекту:
-
Хуткае ўвядзенне ў склад другіх пілотаў бяспекі OWASP LLM01: Хуткае ўвядзенне
-
Атручванне дадзеных для скажэння мадэляў Кодэкс практыкі кібербяспекі са штучным інтэлектам у Вялікабрытаніі
-
Прыклады канфлікту для пазбягання выяўлення MITRE ATLAS
-
здабывання мадэлі ў некаторых наладах MITRE ATLAS
Бяспека заўсёды была гульнёй у кошкі-мышкі. Штучны інтэлект проста робіць катоў хутчэйшымі, а мышэй больш вынаходлівымі 🐭
Сапраўдны адказ: штучны інтэлект замяняе задачы, а не адказнасць ✅
Гэта «нязручная сярэдзіна», у якую трапляе большасць каманд:
-
Штучны інтэлект спраўляецца з маштабаваннем
-
Людзі апрацоўваюць стаўкі
-
Разам яны спраўляюцца з хуткасцю і разважлівасцю
Паводле маіх уласных тэстаў у розных працоўных працэсах бяспекі, штучны інтэлект найлепш працуе, калі да яго ставяцца наступным чынам:
-
Памочнік па трыяжы
-
Рэзюмэ
-
Карэляцыйны рухавік
-
Памочнік па палітыцы
-
Сябар па праверцы кода на наяўнасць рызыкоўных шаблонаў
Штучны інтэлект найгоршы, калі да яго ставяцца наступным чынам:
-
Аракул
-
Адзіная кропка праўды
-
Сістэма абароны «паставіў і забыўся»
-
Прычына недаацэньваць каманду (гэта будзе пазней... цяжкавата)
Гэта як наняць вартавога сабаку, які яшчэ і піша электронныя лісты. Выдатна. Але часам ён брэша на пыласос і не заўважае хлопца, які пераскоквае праз плот. 🐶🧹
Параўнальная табліца (найлепшыя варыянты, якія каманды выкарыстоўваюць штодня) 📊
Ніжэй прыведзена практычная параўнальная табліца — не ідэальная, трохі няроўная, як у рэальным жыцці.
| Інструмент / Платформа | Найлепшае для (аўдыторыі) | Цэнавая атмасфера | Чаму гэта працуе (і якія асаблівасці) |
|---|---|---|---|
| Microsoft Sentinel Microsoft Learn | Каманды SOC, якія жывуць у экасістэмах Microsoft | $$ - $$$ | Моцныя воблачныя шаблоны SIEM; шмат раздымаў, можа быць шумна, калі не настроена.. |
| Splunk Splunk Enterprise Security | Буйнейшыя арганізацыі з інтэнсіўным вядзеннем рэгістрацыі + патрэбы ў наладах | $$$ (часта, шчыра кажучы, $$$$) | Магутны пошук + панэлі кіравання; цудоўна, калі ўсё курыруецца, але балюча, калі ніхто не адказвае за гігіену дадзеных |
| Аперацыі бяспекі Google Google Cloud | Каманды, якія жадаюць кіраванай тэлеметрыі | $$ - $$$ | Добра падыходзіць для маштабавання вялікіх дадзеных; залежыць ад сталасці інтэграцыі, як і многае іншае |
| CrowdStrike Falcon CrowdStrike | Арганізацыі, якія выкарыстоўваюць шмат канцавых кропак, каманды па супрацоўніцтве з кліентамі | $$$ | Высокая бачнасць канчатковых кропак; выдатная глыбіня выяўлення, але вам усё роўна патрэбныя людзі для рэагавання |
| Microsoft Defender для канцавых кропак Microsoft Learn | Арганізацыі, якія выкарыстоўваюць M365 | $$ - $$$ | Цесная інтэграцыя з Microsoft; можа быць выдатна, але пры няправільнай наладзе можа быць «700 абвестак у чарзе» |
| Palo Alto Cortex XSOAR Palo Alto Networks | SOC, арыентаваныя на аўтаматызацыю | $$$ | П'есы памяншаюць цяжкую працу; патрабуюць асцярожнасці, інакш вы аўтаматызуеце беспарадак (так, гэта магчыма) |
| Платформа Wiz | Каманды бяспекі воблачных сістэм | $$$ | Высокая бачнасць воблака; дапамагае хутка прыярытэтызаваць рызыкі, але ўсё яшчэ патрабуе кіравання |
| Платформа Snyk | Арганізацыі, арыентаваныя на распрацоўшчыкаў, AppSec | $$ - $$$ | Зручныя для распрацоўшчыкаў працоўныя працэсы; поспех залежыць ад укаранення распрацоўшчыкамі, а не толькі ад сканавання |
Невялікая заўвага: ніводзін інструмент не «перамагае» сам па сабе. Найлепшы інструмент — гэта той, якім ваша каманда карыстаецца штодня, не абураючыся. Гэта не навука, гэта выжыванне 😅
Рэалістычная аперацыйная мадэль: як каманды перамагаюць з дапамогай штучнага інтэлекту 🤝
Калі вы хочаце, каб штучны інтэлект значна палепшыў бяспеку, звычайна трэба прытрымлівацца наступнага плану:
Крок 1: Выкарыстоўвайце штучны інтэлект для памяншэння працоўнай сілы
-
Зводкі па ўзбагачэнні абвестак
-
Складанне білетаў
-
Кантрольныя спісы для збору доказаў
-
Прапановы запытаў журнала
-
Розніца ў канфігурацыях у раздзеле «Што змянілася»
Крок 2: Выкарыстоўвайце людзей для праверкі і прыняцця рашэння
-
Пацвердзіце ўплыў і аб'ём
-
Выберыце дзеянні па стрымліванні
-
Каардынацыя выпраўленняў паміж камандамі
Крок 3: Аўтаматызуйце бяспечныя рэчы
Добрыя мэты аўтаматызацыі:
-
Змяшчэнне ў каранцін вядомых пашкоджаных файлаў з высокай дакладнасцю
-
Скід уліковых дадзеных пасля пацверджанай кампраметацыі
-
Блакіроўка відавочна шкоднасных даменаў
-
Умацаванне карэкцыі адхіленняў ад палітыкі (асцярожна)
Рызыкоўныя мэты аўтаматызацыі:
-
Аўтаізаляцыя вытворчых сервераў без мер бяспекі
-
Выдаленне рэсурсаў на аснове нявызначаных сігналаў
-
Блакіроўка вялікіх дыяпазонаў IP-адрасоў, таму што «мадэль так лічыла» 😬
Крок 4: Укараненне атрыманых ведаў у кантрольныя элементы
-
Налада пасля інцыдэнту
-
Палепшаныя выяўленні
-
Лепшая інвентарызацыя актываў (вечны боль)
-
Вужэйшыя прывілеі
Вось тут і дапамагае штучны інтэлект: падсумоўванне вынікаў аналізу, картаграфаванне прабелаў у выяўленні, ператварэнне беспарадку ў паўтаральныя паляпшэнні.
Схаваныя рызыкі бяспекі, заснаванай на штучным інтэлекце (так, іх некалькі) ⚠️
Калі вы актыўна ўкараняеце штучны інтэлект, вам трэба ўлічваць падводныя камяні:
-
Вынайдзеная ўпэўненасць
-
Камандам бяспекі патрэбныя доказы, а не гісторыі. Штучны інтэлект любіць гісторыі. NIST AI RMF 1.0
-
-
Уцечка дадзеных
-
Запыты могуць выпадкова ўтрымліваць канфідэнцыйную інфармацыю. Журналы поўныя сакрэтаў, калі ўважліва прыгледзецца. Топ-10 OWASP для заявак на атрыманне магістра права (LLM).
-
-
Празмерная залежнасць
-
Людзі перастаюць вывучаць асновы, таму што другі пілот «заўсёды ведае»... пакуль не перастане іх вывучаць.
-
-
Дрэйф мадэлі
-
Асяроддзе змяняецца. Змяняюцца схемы атак. Выяўленні ціха гніюць. NIST AI RMF 1.0
-
-
Злоўжыванне з боку супернікаў
-
Зламыснікі будуць спрабаваць кіраваць, заблытваць або выкарыстоўваць працоўныя працэсы на аснове штучнага інтэлекту. Рэкамендацыі па распрацоўцы бяспечных сістэм штучнага інтэлекту (NSA/CISA/NCSC-UK)
-
Гэта як зрабіць вельмі разумны замок, а потым пакінуць ключ пад кілімком. Замок — не адзіная праблема.
Дык вось… Ці можа штучны інтэлект замяніць кібербяспеку: адназначны адказ 🧼
Ці можа штучны інтэлект замяніць кібербяспеку?
Ён можа замяніць значную частку паўтаральнай працы ў сферы кібербяспекі. Ён можа паскорыць выяўленне, трыяж, аналіз і нават часткі рэагавання. Але ён не можа цалкам замяніць дысцыпліну, таму што кібербяспека — гэта не адна задача — гэта кіраванне, архітэктура, паводзіны чалавека, лідэрства ў інцыдэнтах і пастаянная адаптацыя.
Калі вы хочаце найбольш шчырую рамку (крыху рэзкую, прабачце):
-
Штучны інтэлект замяняе руцінную працу
-
Штучны інтэлект паляпшае працу добрых каманд
-
Штучны інтэлект выяўляе дрэнныя працэсы
-
Людзі застаюцца адказнымі за рызыку і рэальнасць
І так, некаторыя ролі зменяцца. Задачы пачатковага ўзроўню будуць змяняцца хутчэй за ўсё. Але з'яўляюцца і новыя задачы: бяспечныя рабочыя працэсы, праверка мадэляў, інжынерыя аўтаматызацыі бяспекі, інжынерыя выяўлення з дапамогай інструментаў штучнага інтэлекту... праца не знікае, яна мутуе 🧬
Заключныя нататкі і кароткі агляд 🧾✨
Калі вы вырашаеце, што рабіць са штучным інтэлектам у сферы бяспекі, вось практычны вывад:
-
Выкарыстоўвайце штучны інтэлект для сціскання часу — хутчэйшая трыяж, хутчэйшыя рэзюмэ, хутчэйшая карэляцыя.
-
Трымайце людзей для ацэнкі — кантэкст, кампрамісы, лідэрства, адказнасць.
-
Дапусцім, што зламыснікі таксама выкарыстоўваюць штучны інтэлект — распрацоўвайце для падману і маніпуляцый. MITRE ATLAS па распрацоўцы бяспечных сістэм штучнага інтэлекту (NSA/CISA/NCSC-UK)
-
Не купляйце «магію» — купляйце працоўныя працэсы, якія прыкметна зніжаюць рызыку і цяжкую працу.
Так, штучны інтэлект можа замяніць часткі працы, і часта ён робіць гэта спосабамі, якія спачатку здаюцца незаўважнымі. Пераможны ход — зрабіць штучны інтэлект сваім рычагом уплыву, а не заменай.
А калі вы хвалюецеся за сваю кар'еру — засяродзьцеся на тых частках, з якімі ў штучнага інтэлекту ўзнікаюць цяжкасці: сістэмнае мысленне, кіраванне інцыдэнтамі, архітэктура і тое, каб быць чалавекам, які можа адрозніць «цікавае папярэджанне» ад «у нас хутка будзе вельмі дрэнны дзень». 😄🔐
Часта задаваныя пытанні
Ці можа штучны інтэлект цалкам замяніць каманды па кібербяспецы?
Штучны інтэлект можа ўзяць на сябе значную частку працы па кібербяспецы, але не ўсю дысцыпліну ад пачатку да канца. Ён выдатна спраўляецца з паўтаральнымі задачамі па павышэнні прапускной здольнасці, такімі як кластарызацыя папярэджанняў, выяўленне анамалій і складанне зводак першага праходу. Ён не замяняе падсправаздачнасць, бізнес-кантэкст і меркаванні, калі стаўкі высокія. На практыцы каманды аказваюцца ў «няёмкай сярэдзіне», дзе штучны інтэлект забяспечвае маштаб і хуткасць, а людзі захоўваюць адказнасць за важныя рашэнні.
Дзе штучны інтэлект ужо замяняе паўсядзённую працу SOC?
У многіх цэнтрах кіравання аперацыйнай сістэмай штучны інтэлект ужо бярэ на сябе такую працаёмкую працу, як трыяж, дэдуплікацыя і ранжыраванне абвестак па верагоднасці ўздзеяння. Ён таксама можа паскорыць аналіз журналаў, выяўляючы заканамернасці, якія адрозніваюцца ад базавага ўзроўню. У выніку інцыдэнты становяцца меншымі не па чараўніцтве, а меншай колькасцю гадзін, якія аналітыкі трацяць на барацьбу з небяспечнымі сітуацыямі, таму яны могуць засяродзіцца на важных расследаваннях.
Як інструменты штучнага інтэлекту дапамагаюць у кіраванні ўразлівасцямі і прыярытэтызацыі патчаў?
Штучны інтэлект дапамагае перанесці кіраванне ўразлівасцямі з «занадта шмат CVE» на «што нам варта выправіць у першую чаргу». Распаўсюджаны падыход спалучае сігналы верагоднасці эксплойтаў (напрыклад, EPSS), вядомыя спісы эксплойтаў (напрыклад, каталог KEV CISA) і кантэкст вашага асяроддзя (уздзеянне Інтэрнэту і крытычнасць актываў). Калі ўсё зрабіць правільна, гэта памяншае здагадкі і падтрымлівае выпраўленне без парушэння працы бізнесу.
Што адрознівае «добры» штучны інтэлект у кібербяспецы ад шумнага штучнага інтэлекту?
Добры штучны інтэлект у кібербяспецы памяншае шум, а не стварае ўпэўнена гучачы беспарадак. Ён прапануе практычныя тлумачэнні — канкрэтныя падказкі, напрыклад, што змянілася, што назіралася і чаму гэта важна — замест доўгіх, расплывістых апавяданняў. Ён таксама інтэгруецца з асноўнымі сістэмамі (IAM, канчатковыя кропкі, воблака, сістэма тыкетавання) і падтрымлівае кіраванне чалавекам, каб аналітыкі маглі выпраўляць, наладжваць або ігнараваць змены пры неабходнасці.
Якія аспекты кібербяспекі штучны інтэлект з цяжкасцю замяняе?
Найбольшыя цяжкасці штучнаму інтэлекту прыносяць сацыяльна-тэхнічная праца: рызыкавая схільнасць, кіраванне інцыдэнтамі і каардынацыя паміж камандамі. Падчас інцыдэнтаў задача часта ператвараецца ў камунікацыю, апрацоўку доказаў, юрыдычныя пытанні і прыняцце рашэнняў ва ўмовах нявызначанасці — сферы, дзе лідэрства пераўзыходзіць пошук шаблонаў. Штучны інтэлект можа дапамагчы ў падсумаванні журналаў або складанні графікаў, але ён не можа надзейна замяніць адказнасць пад ціскам.
Як зламыснікі выкарыстоўваюць штучны інтэлект, і ці змяняе гэта працу абаронцы?
Зламыснікі выкарыстоўваюць штучны інтэлект для маштабавання фішынгу, стварэння больш пераканаўчай сацыяльнай інжынерыі і больш хуткага выкарыстання варыянтаў шкоднасных праграм. Гэта змяняе ўмовы гульні: выкарыстанне штучнага інтэлекту абаронцамі з часам становіцца менш неабавязковым. Гэта таксама дадае новую рызыку, бо зламыснікі могуць атакаваць працоўныя працэсы са штучным інтэлектам шляхам імгненнага ўвядзення віруса, спроб атручвання або ўхілення ад нападаў — гэта значыць, што сістэмам штучнага інтэлекту таксама патрэбныя сродкі кантролю бяспекі, а не сляпы давер.
Якія найбольшыя рызыкі выкарыстання штучнага інтэлекту для прыняцця рашэнняў па бяспецы?
Асноўная рызыка — гэта выдуманая ўпэўненасць: штучны інтэлект можа гучаць упэўнена, нават калі памыляецца, а ўпэўненасць не з'яўляецца кантролем. Уцечка дадзеных — яшчэ адна распаўсюджаная памылка: падказкі бяспекі могуць міжволі ўтрымліваць канфідэнцыйную інфармацыю, а журналы часта ўтрымліваюць сакрэты. Празмерная залежнасць таксама можа падарваць асновы, у той час як зрух мадэлі незаўважна пагаршае выяўленне па меры змены асяроддзя і паводзін зламысніка.
Якая рэалістычная аперацыйная мадэль выкарыстання штучнага інтэлекту ў кібербяспецы?
Практычная мадэль выглядае наступным чынам: выкарыстоўваць штучны інтэлект для скарачэння працы, прыцягваць людзей для праверкі і прыняцця рашэнняў і аўтаматызаваць толькі бяспечныя рэчы. Штучны інтэлект моцны для ўзбагачэння зводак, складання заявак, кантрольных спісаў доказаў і параўнання «што змянілася». Аўтаматызацыя найлепш падыходзіць для дзеянняў з высокай дакладнасцю, такіх як блакаванне вядомых пашкоджаных даменаў або скід уліковых дадзеных пасля пацверджанай кампраметацыі, з мерамі абароны ад злоўжыванняў.
Ці заменіць штучны інтэлект пасады пачатковага ўзроўню ў сферы кібербяспекі, і якія навыкі стануць больш каштоўнымі?
Хутчэй за ўсё, хутка зменяцца аб'ёмы задач пачатковага ўзроўню, бо штучны інтэлект можа выконваць паўтаральную працу па сартаванні, абагульненні і класіфікацыі. Але з'яўляюцца і новыя задачы, такія як стварэнне бяспечных для хуткага рэагавання працоўных працэсаў, праверка вынікаў мадэлі і аўтаматызацыя бяспекі праектавання. Кар'ерная ўстойлівасць, як правіла, залежыць ад навыкаў, з якімі мае праблемы штучны інтэлект: сістэмнае мысленне, архітэктура, кіраванне інцыдэнтамі і пераўтварэнне тэхнічных сігналаў у бізнес-рашэнні.
Спасылкі
-
ПЕРШЫ - EPSS (ПЕРШЫ) - first.org
-
Агенцтва па кібербяспецы і бяспецы інфраструктуры (CISA) - Каталог вядомых эксплуатаваных уразлівасцей - cisa.gov
-
Нацыянальны інстытут стандартаў і тэхналогій (NIST) - SP 800-40 Rev. 4 (Кіраванне карпаратыўнымі патчамі) - csrc.nist.gov
-
Нацыянальны інстытут стандартаў і тэхналогій (NIST) - AI RMF 1.0 - nvlpubs.nist.gov
-
OWASP - LLM01: Хуткая ін'екцыя - genai.owasp.org
-
Урад Вялікабрытаніі - Кодэкс практыкі па кібербяспецы штучнага інтэлекту - gov.uk
-
Нацыянальны інстытут стандартаў і тэхналогій (NIST) - SP 800-61 (Кіраўніцтва па апрацоўцы інцыдэнтаў) - csrc.nist.gov
-
Федэральнае бюро расследаванняў (ФБР) - ФБР папярэджвае аб узрастаючай пагрозе кіберзлачынцаў, якія выкарыстоўваюць штучны інтэлект - fbi.gov
-
Цэнтр скаргаў ФБР на інтэрнэт-злачынствы (IC3) - IC3 PSA па махлярстве/фішынгу з выкарыстаннем генератыўнага штучнага інтэлекту - ic3.gov
-
OpenAI - справаздачы аб пагрозах OpenAI (прыклады шкоднаснага выкарыстання) - openai.com
-
Еўрапол - «Справаздача аб злоўжываннях у ChatGPT» Еўрапола (агляд злоўжыванняў) - europol.europa.eu
-
МІТРА - АТЛАС МІТРЫ - mitre.org
-
OWASP - Топ-10 праграм OWASP для атрымання ступені магістра права (LLM) - owasp.org
-
Агенцтва нацыянальнай бяспекі (АНБ) - Кіраўніцтва па забеспячэнні распрацоўкі сістэм штучнага інтэлекту (АНБ/CISA/NCSC-UK і партнёры) - nsa.gov
-
Microsoft Learn - Агляд Microsoft Sentinel - learn.microsoft.com
-
Splunk - Splunk Enterprise Security - splunk.com
-
Google Cloud - Аперацыі бяспекі Google - cloud.google.com
-
CrowdStrike - платформа CrowdStrike Falcon - crowdstrike.com
-
Microsoft Learn - Microsoft Defender для канцавых кропак - learn.microsoft.com
-
Сеткі Пала-Альта - Cortex XSOAR - paloaltonetworks.com
-
Wiz - Платформа Wiz - wiz.io
-
Snyk - платформа Snyk - snyk.io