Навіны штучнага інтэлекту, 9 сакавіка 2026 г

Агляд навін па штучным інтэлекце: 9 сакавіка 2026 г

⚖️ Anthropic падае ў суд, каб заблакаваць унясенне ў чорны спіс Пентагона з-за абмежаванняў на выкарыстанне штучнага інтэлекту

«Anthropic» падала ў суд на свой спрэч з Пентагонам пасля таго, як яе абвінавацілі ў рызыках для ланцужкоў паставак. Кампанія сцвярджае, што гэты крок быў незаконным помстай за адмову паслабіць абмежаванні адносна аўтаномнай зброі і ўнутранага назірання, што робіць гэтую спрэчку адной з самых спрэчных у палітыцы штучнага інтэлекту на дадзены момант. ( Reuters )

Урад хоча гнуткасці для «любога законнага выкарыстання», у той час як Anthropic сцвярджае, што прыватным лабараторыям усё ж варта дазволіць праводзіць жорсткія межы бяспекі. Гэта стала адным з самых відавочных тэстаў на тое, ці можа кампанія, якая займаецца штучным інтэлектам, сказаць «не» ваенным умовам, не падвяргаючыся за гэта жорсткім крытыкам. ( Reuters )

🧑💻 Супрацоўнікі OpenAI і Google падтрымліваюць пазоў Anthropic супраць Пентагона

Гэты пазоў хутка атрымаў падтрымку і ўнутры канкуруючых лабараторый. Амаль 40 супрацоўнікаў OpenAI і Google падтрымалі Anthropic у заяве amicus curiae, сцвярджаючы, што меры помсты супраць кампаній за парушэнне правілаў бяспекі штучнага інтэлекту супярэчаць грамадскім інтарэсам. ( The Verge )

Так, канкурэнты нечакана апынуліся на адным баку — прынамсі, у гэтым пытанні. У заключэнні разглядаецца масавае назіранне і ненадзейная аўтаномная зброя, што робіць усю гэтую справу не такой ужо і звычайнай снайперскай атакай у Сіліконавай даліне, а хутчэй сапраўднай прамысловай лініяй у пяску... ці, магчыма, у гразі. ( The Verge )

🛡️ OpenAI набывае Promptfoo для абароны сваіх агентаў штучнага інтэлекту

OpenAI заявіла, што купляе Promptfoo, стартап, які спецыялізуецца на абароне вялікіх моўных мадэляў ад атак з боку іншых кампаній. План заключаецца ў тым, каб інтэграваць сваю тэхналогію ў OpenAI Frontier, карпаратыўную платформу кампаніі для агентаў штучнага інтэлекту. ( TechCrunch )

Гэта паказальны крок. Усе хочуць, каб агентны штучны інтэлект рабіў больш, хутчэй і ўсюды, але бок бяспекі адстаў, нязначна ці значна. Гэта пагадненне сведчыць аб тым, што OpenAI лічыць, што наступная буйная гонка будзе не толькі за разумнейшымі агентамі, але і за больш бяспечнымі. ( TechCrunch )

🧪 Anthropic запускае інструмент для праверкі кода, каб праверыць паток кода, згенераванага штучным інтэлектам

Anthropic запусціў Code Review унутры Claude Code, прызначаны для каманд, якія патанаюць у пул-рэквестах, створаных інструментамі кадавання са штучным інтэлектам. Ён выкарыстоўвае некалькі агентаў паралельна для сканавання кода, пазначэння лагічных праблем, ранжыравання сур'ёзнасці і пакідання каментарыяў непасрэдна ў GitHub. ( TechCrunch )

Ідэя даволі простая — штучны інтэлект генеруе код хутчэй, чым людзі могуць яго разумна праверыць, таму цяпер штучны інтэлект павінен праверыць штучны інтэлект. Гэта трохі складаная схема, але практычная. Anthropic сцвярджае, што яна арыентавана на карпаратыўных карыстальнікаў, якія ўжо бачаць велізарную колькасць вываду кода ад Claude Code. ( TechCrunch )

💰 Ацэнка Nscale, якую падтрымлівае Nvidia, склала 14,6 мільярда долараў у рамках новага раўнда фінансавання

Брытанская кампанія Nscale, якая займаецца інфраструктурай штучнага інтэлекту, прыцягнула 2 мільярды долараў у раўндзе фінансавання серыі C, што дасягнула ацэнкі ў 14,6 мільярда долараў. Сярод спонсараў былі Aker, 8090 Industries, Nvidia, Citadel, Dell і Jane Street, што з'яўляецца даволі важкім вотумам даверу. ( Reuters )

Гэта важна, бо гэта не чарговы запуск мадэлі ці карэкціроўка чат-бота. Гэта тыя самыя махінацыі з рыдлёўкамі падчас буму — вылічэнні, інфраструктура, магутнасці, уся цяжкая тэхніка за кулісамі. Магчыма, гэта не гламурна, але менавіта туды зараз накіроўваецца вялікая частка грошай. ( Reuters )

🧠 Лабараторыя AMI Яна Лекуна прыцягвае 1,03 мільярда долараў на стварэнне мадэляў свету

Новае прадпрыемства Яна Лекуна, AMI Labs, прыцягнула 1,03 мільярда долараў пры ацэнцы да ўкладання сродкаў у 3,5 мільярда долараў. Кампанія імкнецца да «сусветных мадэляў» — сістэм штучнага інтэлекту, прызначаных для навучання на самой рэальнасці, а не ў першую чаргу на мове. ( TechCrunch )

Гэта прамы філасофскі ўдар па існуючым кансенсусе, які грунтуецца на LLM, і прычым даволі рэзкі. ЛеКун гадамі сцвярджаў, што сучасныя моўныя мадэлі не дазволяць нам дасягнуць інтэлекту чалавечага ўзроўню, таму гэтае ўзняцце ператварае гэты аргумент у вельмі дарагі эксперымент. ( TechCrunch )

🇨🇳 Кітайскія тэхналагічныя цэнтры прасоўваюць агента штучнага інтэлекту OpenClaw, нягледзячы на ​​папярэджанні бяспекі

Некалькі мясцовых органаў улады Кітая падтрымліваюць OpenClaw, агент штучнага інтэлекту, які хутка распаўсюджваецца, нягледзячы на ​​праблемы бяспекі, звязаныя з яго доступам да персанальных дадзеных. Такім чынам, афіцыйны настрой, здаецца, такі: так, рызыкі ёсць — і так, давайце ўсё роўна яго маштабаваць. ( Reuters )

Гэты падзел і ёсць асноўная тэма. Мясцовыя хабы хочуць эканамічнага росту і імпульсу экасістэмы, у той час як рэгулятары папярэджваюць аб уцечцы дадзеных. Гэта ўжо знаёмая схема штучнага інтэлекту — спачатку спрынт, потым прывядзенне ў парадак агароджы, ці, прынамсі, так здаецца. ( Reuters )

Часта задаваныя пытанні

Чаму Anthropic падае ў суд на Пентагон з-за абмежаванняў на выкарыстанне штучнага інтэлекту?

Anthropic сцвярджае, што Пентагон назваў гэта рызыкай для ланцужка паставак пасля таго, як кампанія адмовілася ад больш шырокіх умоў, якія маглі б распаўсюджвацца на аўтаномную зброю і ўнутранае назіранне. Такім чынам, пазоў тычыцца не толькі статусу пастаўшчыка. Ён правярае, ці можа лабараторыя штучнага інтэлекту падтрымліваць жорсткія абмежаванні бяспекі і пры гэтым канкураваць за дзяржаўныя заказы, не будучы пакаранай.

Чаму супрацоўнікі OpenAI і Google падтрымліваюць Anthropic у гэтай спрэчцы аб бяспецы штучнага інтэлекту?

У запісцы amicus curiae сцвярджаецца, што многія супрацоўнікі канкуруючых лабараторый разглядаюць гэта як прэцэдэнтную праблему бяспекі штучнага інтэлекту, а не проста барацьбу паміж адной кампаніяй і адным агенцтвам. Іх турбуе, што пакаранне пастаўшчыка за захаванне чырвоных ліній можа ціснуць на больш шырокі рынак, каб ён аслабіў меры бяспекі. На практыцы гэта можа паўплываць на тое, як будуць абмяркоўвацца будучыя кантракты на выкарыстанне штучнага інтэлекту ў абароннай і дзяржаўнай сферах.

Што можа змяніць справа «Антрапік-Пентагон» для палітыкі ў галіне штучнага інтэлекту і абаронных кантрактаў?

Калі Anthropic пераможа, кампаніі, якія займаюцца штучным інтэлектам, могуць атрымаць больш моцныя паўнамоцтвы для вызначэння непрымальных ужыванняў, нават пры продажы ў адчувальныя дзяржаўныя асяроддзі. Калі ж Anthropic прайграе, агенцтвы могуць атрымаць рычагі, каб патрабаваць ад пастаўшчыкоў больш шырокіх умоў «законнага выкарыстання». У любым выпадку, гэтая спрэчка, верагодна, паўплывае на фармулёўку закупак, ацэнку рызык і тое, як гарантыі бяспекі ўпісваюцца ў абаронныя кантракты.

Чаму OpenAI купіла Promptfoo для агентаў штучнага інтэлекту?

Promptfoo вядомы тым, што тэстуе вялікія моўныя мадэлі на наяўнасць падказак суперніка і іншых уразлівасцяў бяспекі. Укараненне такога інструментарію ў платформу карпаратыўных агентаў OpenAI сведчыць аб тым, што кампанія разглядае больш бяспечнае разгортванне як канкурэнтную перавагу, а не як пабочную задачу. Паколькі агенты штучнага інтэлекту бяруць на сябе больш істотнай працы, тэставанне на ўстойлівасць і злоўжыванні становіцца значна цяжэй ігнараваць.

Як каманды могуць больш бяспечна справіцца з патокам кода, згенераванага штучным інтэлектам?

Новая функцыя праверкі кода Anthropic у Claude Code прызначана для каманд, перагружаных запытамі на зліццё, якія генеруюцца інструментамі кадавання са штучным інтэлектам. Яна выкарыстоўвае некалькі агентаў паралельна для выяўлення лагічных праблем, ранжыравання іх ступені цяжкасці і пакідання каментарыяў у GitHub. Звычайна такія інструменты дапамагаюць сартаваць аб'ём, але рэцэнзенты-людзі ўсё яшчэ маюць значэнне для архітэктуры, кантэксту і канчатковага зацвярджэння.

Чаму ў інфраструктуру штучнага інтэлекту зараз інвестуецца так шмат сродкаў?

Апошні раўнд фінансавання Nscale падкрэслівае, што індустрыя штучнага інтэлекту ўсё яшчэ ўкладвае велізарныя сродкі ў вылічэнні, інфраструктуру і магутнасці. Гэтыя выдаткі могуць быць менш прыкметнымі, чым яркі запуск мадэлі, але яны ляжаць у аснове ўсяго астатняга. Калі попыт на навучанне і разгортванне працягвае расці, кампаніі, якія прадаюць кіркі і рыдлёўкі, часта становяцца аднымі з найбуйнейшых пераможцаў.

Што такое сусветныя мадэлі і чаму Ян ЛеКун робіць стаўку на іх?

Сусветныя мадэлі — гэта сістэмы штучнага інтэлекту, прызначаныя для вывучэння таго, як паводзіць сябе свет, а не абапірацца ў першую чаргу на моўныя дадзеныя. Гэта важна, бо Ян ЛеКун даўно сцвярджае, што моўныя мадэлі самі па сабе наўрад ці дасягнуць інтэлекту ўзроўню чалавецтва. AMI Labs ператварае гэты погляд у буйную камерцыйную стаўку на іншы шлях для перадавых даследаванняў штучнага інтэлекту.

Чаму кітайскія тэхналагічныя цэнтры падтрымліваюць OpenClaw, нягледзячы на ​​папярэджанні бяспекі?

Гісторыя OpenClaw дэманструе знаёмы падзел на хутка развіваючыхся тэхналагічных рынках: мясцовыя органы ўлады жадаюць росту, субсідый і імпульсу экасістэмы, у той час як рэгулятары турбуюцца аб раскрыцці дадзеных і бяспецы. Падтрымка агента, нягледзячы на ​​папярэджанні, сведчыць аб тым, што ў некаторых месцах пераважаюць эканамічныя стымулы. Для назіральнікаў гэта яшчэ адно напамін пра тое, што ўкараненне часта адбываецца хутчэй, чым кантроль.

Учорашнія навіны пра штучны інтэлект: 8 сакавіка 2026 г

Знайдзіце найноўшы штучны інтэлект у афіцыйнай краме памочнікаў штучнага інтэлекту

Пра нас

Назад да блога