Навіны штучнага інтэлекту, 28 студзеня 2026 г

Агляд навін па штучным інтэлекце: 28 студзеня 2026 г

🧬 DeepMind запускае AlphaGenome для выяўлення генетычных фактараў захворванняў

DeepMind прадставіла AlphaGenome — сістэму штучнага інтэлекту, прызначаную для прагназавання таго, як мутацыі ДНК змяняюць рэгуляцыю генаў — у асноўным, калі гены ўключаюцься, дзе і наколькі гучна. Яна можа сканаваць велізарныя ўчасткі ДНК за адзін раз, у тым ліку расцягнутыя некадзіруючыя вобласці, якія часта адчуваюцца як біялагічная цёмная матэрыя.

Ідэя даволі простая: хутчэйшае вызначэнне мутацый, якія сапраўды маюць значэнне для такіх рэчаў, як рызыка раку і складаныя спадчынныя захворванні. Калі гэта працуе так, як рэкламуецца, даследчыкі марнуюць менш часу на здагадкі і больш часу на тэставанне патрэбных рэчаў — што гучыць відавочна, але ў гэтым, у прынцыпе, і ўся гульня.

🧑💼 Штучны інтэлект будзе каштаваць працоўных месцаў, прызнае Ліз Кендал

Міністр тэхналогій Вялікабрытаніі адкрыта заявіла, што ўкараненне штучнага інтэлекту прывядзе да страты працоўных месцаў — не ў звычайным стылі «усё будзе добра, абяцайце». Яна адзначыла трывогу з нагоды паступлення выпускнікоў у такіх галінах, як права і фінансы, і не сцвярджала, што хтосьці можа назваць нейкую канкрэтную лічбу.

Адначасова ўрад робіць значны ўпор на адаптацыю: ён робіць значны крок па навучанні мільёнаў работнікаў базавым навыкам штучнага інтэлекту, каб Вялікабрытанія хутчэй перайшла на штучны інтэлект. Гэта класічная супярэчнасць — так, працоўныя месцы знікаюць, так, працоўныя месцы з'яўляюцца, не, але ўсё будзе дрэнна.

🗞️ Вялікабрытанія заклікае Google дазволіць сайтам адмовіцца ад аглядаў штучнага інтэлекту

Брытанскія рэгулятары канкурэнцыі прапанавалі змены, якія дазволяць выдаўцам адмовіцца ад выкарыстання свайго кантэнту для аглядаў штучнага інтэлекту Google — або для навучання аўтаномных мадэляў штучнага інтэлекту — без пакарання ў звычайных рэйтынгах пошуку. Гэты пункт «без пакарання» тут вельмі працуе.

Ідэя заключаецца ў тым, каб перабалансаваць сілы, бо штучны інтэлект змяняе тое, як людзі націскаюць (ці не націскаюць). Адказ Google быў такім: паводзіны пошуку змяняюцца, мы разглядаем магчымасць пашырэння элементаў кіравання, але не разбіваем прадукт на нязграбна фрагментаваную версію самога сябе... што, дарэчы, справядліва, але і зручна.

🛡️ Захаванне вашых дадзеных у бяспецы, калі агент штучнага інтэлекту націскае на спасылку

OpenAI падрабязна апісаў канкрэтную рызыку для бяспекі агента: выкраданне дадзеных на аснове URL-адрасоў — калі зламыснік падманвае штучны інтэлект, прымушаючы яго загрузіць URL-адрас, які незаўважна ўбудоўвае прыватную інфармацыю ў радок запыту. Нават калі мадэль ніколі не «кажа» сакрэт, сам запыт можа яго ўцекчы. Агідна і раззбройваюча нізкатэхналагічна.

Іх змякчэнне — гэта простае правіла з вострыя куты: агенты павінны аўтаматычна атрымліваць толькі тыя URL-адрасы, якія ўжо з'яўляюцца публічнымі і пра існаванне якіх вядома праз незалежны вэб-індэкс. Калі спасылка не праверана як публічная, сістэма павінна запаволіцца і вярнуць карыстальніку кантроль з дапамогай папярэджанняў — наўмыснае трэнне, але добрае.

🇪🇺 Наступны раздзел для штучнага інтэлекту ў ЕС

OpenAI апублікаваў план, арыентаваны на ЕС, які акрэслівае праблему «лішку магчымасцей» — мадэлі могуць рабіць больш, чым людзі і прадпрыемствы выкарыстоўваюць іх у цяперашні час, і гэты разрыў рызыкуе нераўнамерным поспехам у розных краінах. Гэта як валодаць гоначным аўтамабілем і ездзіць на ім толькі ў краму на рагу... толькі крама на рагу — гэта ўся ваша эканоміка.

Акрамя рыторыкі, ёсць і канкрэтныя рэчы: праграма, накіраваная на навучанне тысяч еўрапейскіх малых і сярэдніх прадпрыемстваў навыкам у галіне штучнага інтэлекту, грант, звязаны з даследаваннямі бяспекі і дабрабыту моладзі, і пашыраная пазіцыя «супрацоўніцтва з урадамі». Гэта часткова палітычны мемарандум, часткова кампанія па ўкараненні — і так, яны зліваюцца разам.

🔐 Рызыка штучнага інтэлекту сустракаецца з кіраваннем кібертэхналогіяй: праект профілю кіберштуку NIST

Новы праект профілю ад NIST (на падставе аналізу з артыкула юрыдычнай фірмы) засяроджваецца на тым, як арганізацыі павінны ўключаць штучны інтэлект у кіраванне кібербяспекай — як для забеспячэння бяспекі саміх сістэм штучнага інтэлекту, так і для выкарыстання штучнага інтэлекту для паляпшэння кіберабароны. На паперы гэта добраахвотна, але з часам «добраахвотнасць» можа стаць чаканай.

Групы, якія распрацоўваюць праекты, працуюць над такімі тэмамі, як забеспячэнне бяспекі кампанентаў штучнага інтэлекту і разгортванне абароны на базе штучнага інтэлекту, у тым ліку над улікам ланцужкоў паставак і аўтаматызацыі, падобнай да агентаў, у працоўных працэсах рэагавання. Ідэя такая: разглядаць штучны інтэлект як новую паверхню для атакі і новы набор інструментаў, і не рабіць выгляд, што яны кампенсуюць адзін аднаго.

Часта задаваныя пытанні

Што такое AlphaGenome ад DeepMind і якую праблему ён спрабуе вырашыць?

AlphaGenome — гэта сістэма штучнага інтэлекту, якая, паводле слоў DeepMind, можа прадказаць, як мутацыі ДНК уплываюць на рэгуляцыю генаў — калі гены актывуюцца, дзе гэта адбываецца і наколькі моцна. Яна прызначана для адначасовага сканавання вельмі вялікіх участкаў ДНК, у тым ліку некадзіруючых участкаў, якія, як вядома, цяжка інтэрпрэтаваць. Мэта складаецца ў тым, каб дапамагчы даследчыкам вызначыць, якія мутацыі найбольш верагодна выклікаюць захворванні, каб лабараторныя выпрабаванні маглі засяродзіцца на найбольш перспектыўных падказках.

Як AlphaGenome можа дапамагчы даследчыкам хутчэй знайсці генетычныя прычыны захворванняў?

У многіх генетычных працоўных працэсах вузкае месца ўзнікае з-за скарачэння велізарных спісаў варыянтаў да некалькіх, якія праўдападобна змяняюць актыўнасць генаў. AlphaGenome абяцае скараціць гэтыя здагадкі, прагназуючы, як канкрэтныя мутацыі могуць змяніць рэгуляцыю ў доўгіх паслядоўнасцях ДНК. Калі гэтыя прагнозы пацвердзяцца, каманды могуць расставіць прыярытэты ў эксперыментах вакол варыянтаў, найбольш верагодна звязаных з рызыкай раку або складанымі спадчыннымі захворваннямі, марнуючы менш часу на тупіковыя сітуацыі.

Ці сапраўды ўкараненне штучнага інтэлекту будзе каштаваць працоўных месцаў у Вялікабрытаніі, і якія прафесіі найбольш схільныя да рызыкі?

Міністр тэхналогій Вялікабрытаніі Ліз Кендал заявіла, што ўкараненне штучнага інтэлекту прывядзе да страты працоўных месцаў, і падкрэсліла занепакоенасць з нагоды пасад, якія паступаюць на выпускныя пасады. Яна асабліва звярнула ўвагу на такія галіны, як права і фінансы, дзе задачы на ​​пачатку кар'еры могуць быць больш аўтаматызаванымі. У той жа час урад робіць акцэнт на адаптацыі праз маштабнае навучанне базавым навыкам штучнага інтэлекту, прызнаючы, што пераход можа адчувацца няроўным, нават калі з'явяцца новыя пасады.

Ці могуць брытанскія выдаўцы адмовіцца ад аглядаў штучнага інтэлекту ад Google, не губляючы пры гэтым рэйтынгу ў пошуку?

Рэгулятары канкурэнцыі Вялікабрытаніі прапанавалі змены, якія дазволяць выдаўцам адмовіцца ад выкарыстання свайго кантэнту для аглядаў штучнага інтэлекту Google або для навучання асобных мадэляў штучнага інтэлекту без пакарання ў стандартных рэйтынгах пошуку. Мэта складаецца ў тым, каб перабалансаваць сілы, паколькі агляды штучнага інтэлекту змяняюць паводзіны пры кліках. Google даў зразумець, што разглядае магчымасць пашырэння кантролю, адначасова папярэджваючы аб фрагментаваным досведзе пошуку.

Як агент штучнага інтэлекту можа перадаць прыватныя дадзеныя, проста націснуўшы на спасылку?

OpenAI апісаў рызыку выкрадання дадзеных на аснове URL-адраса, калі зламыснік прапануе агенту штучнага інтэлекту атрымаць спасылку, якая незаўважна ўбудоўвае канфідэнцыйную інфармацыю ў радок запыту. Нават калі мадэль ніколі не паўтарае сакрэт у сваім вывадзе, сам запыт можа перадаць яго. Распаўсюджаным спосабам змякчэння рызыкі з'яўляецца даданне «наўмысных перашкод», такіх як папярэджанні і патрабаванне пацверджання карыстальнікам, калі спасылка не праверана незалежна як публічная.

Што такое праект профілю кібер-штучнага інтэлекту NIST і як ён змяняе кіраванне кібертэхналогіяй?

У праекце профілю NIST (абмеркаваным на аснове юрыдычнага аналізу) штучны інтэлект разглядаецца як нешта, што трэба абараняць, і нешта, што трэба выкарыстоўваць у кіберабароне. Ён аб'ядноўвае працу па такіх тэмах, як забеспячэнне бяспекі кампанентаў штучнага інтэлекту, барацьба з рызыкамі ў ланцужку паставак і разгортванне абароны на аснове штучнага інтэлекту, у тым ліку больш аўтаматызаваныя, падобныя на агентаў, працоўныя працэсы рэагавання. Нягледзячы на ​​тое, што такія структуры называюцца добраахвотнымі, яны часта становяцца фактычнымі чаканнямі, падштурхоўваючы арганізацыі да афіцыйнага ўключэння штучнага інтэлекту ў сістэму кіравання і кантролю.

Учорашнія навіны пра штучны інтэлект: 27 студзеня 2026 г

Знайдзіце найноўшы штучны інтэлект у афіцыйнай краме памочнікаў штучнага інтэлекту

Пра нас

Назад да блога