Навіны штучнага інтэлекту, 15 лютага 2026 г

Агляд навін па штучным інтэлекце: 15 лютага 2026 г

🦞 Заснавальнік OpenClaw Штайнбергер далучаецца да OpenAI, бот з адкрытым зыходным кодам становіцца фондам

Пітэр Штайнбергер накіроўваецца ў OpenAI, каб прасоўваць «персанальных агентаў», у той час як сам OpenClaw будзе ўбудаваны ў фонд, каб заставацца з адкрытым зыходным кодам (і падтрымлівацца). Гэты падзел... даволі разумны — найміце распрацоўшчыка, захавайце праект публічным.

Прэзентацыя OpenClaw неверагодна практычная: сартаванне электроннай пошты, афармленне страхавых дакументаў, рэгістрацыя на рэйсы, надакучлівыя задачы адміністравання жыцця. Ён таксама атрымаў вялікую папулярнасць на GitHub, і гэтая папулярнасць выклікала асцярогі з нагоды бяспекі, асабліва калі людзі выкарыстоўваюць яго неасцярожна.

🪖 Пентагон стаміўся ад супраціўлення Anthropic з нагоды выкарыстання вайскоўцамі мадэлі штучнага інтэлекту Клода і можа разарваць сувязі, гаворыцца ў дакладзе

Асноўная праблема: Пентагон хоча шырокага доступу «для ўсіх законных мэтаў», а Anthropic усё яшчэ спрабуе захаваць жорсткія абмежаванні на цалкам аўтаномную зброю і масавае назіранне. Гэта той тып рознагалоссяў, які гучыць філасофскі, пакуль хтосьці не скажа: «Мы можам вас замяніць»

Адзін недаацэнены недахоп — чыноўнікі не хочуць, каб мадэль раптоўна блакавала працоўныя працэсы пасярод працэсу, і яны не хочуць вечна абмяркоўваць памежныя выпадкі (справядліва... але таксама і ох). Тут ёсць сапраўдная напружанасць паміж тым, хто трымае ключы, і яна не ледзь прыкметная.

🧠 Стартап будуе мадэль для прагназавання паводзін чалавека

Сімайл прыцягнула 100 мільёнаў долараў на стварэнне мадэлі «абмежаванага навучання», накіраванай на прагназаванне таго, што могуць рабіць людзі, у тым ліку, вельмі канкрэтна, на прадбачанне верагодных пытанняў у такіх рэчах, як справаздачы аб прыбытках. Вузкая мэта, вялікія амбіцыі, трохі дзіўнае спалучэнне.

Гэты падыход абапіраецца на інтэрв'ю з рэальнымі людзьмі і дадзеныя паводніцкіх даследаванняў, а затым праводзіць мадэляванне з дапамогай агентаў штучнага інтэлекту, якія павінны адлюстроўваць рэальныя перавагі. Гэта як стварэнне мадэлі надвор'я для чалавечых рашэнняў... што гучыць немагчыма, пакуль гэта не становіцца рэальнасцю.

🧑⚖️ Навіны: Белы дом цісне на заканадаўцу штата Юта, каб той адхіліў законапраект аб празрыстасці штучнага інтэлекту

Ініцыятыва па забеспячэнні празрыстасці ў галіне штучнага інтэлекту ў штаце Юта падвяргаецца непасрэднай крытыцы з боку Белага дома, дзе чыноўнікі заклікаюць аўтара законапраекта не прасоўваць яго далей. У аснове законапраекта ляжыць празрыстасць і бяспека дзяцей — з гэтым цяжка спрачацца толькі на першы погляд.

Але больш маштабная барацьба тычыцца юрысдыкцыі: хто ўстанаўлівае правілы, штаты ці федэральны ўрад. І так, гэта рык — як два чалавекі, якія схапіліся за адзін і той жа руль і настойвалі на тым, што яны спакойныя.

🎬 ByteDance абяцае прадухіліць несанкцыянаванае выкарыстанне IP-адраса ў відэаінструменты са штучным інтэлектам пасля пагрозы Disney

«Дысней» звярнуўся з заяваю аб спыненні дзеянняў, звязаных з відэагенератарам са штучным інтэлектам ад ByteDance, і ByteDance заяўляе аб узмацненні мер бяспекі для прадухілення несанкцыянаванага выкарыстання інтэлектуальнай уласнасці і падабенства. Скарга, як мяркуецца, заключаецца ў тым, што інструмент можа выдаваць знаёмых персанажаў франшызы так, быццам яны проста... налепкі з грамадскага здабытку.

Гэта сутыкненне, якое ўсе прадбачылі: вірусныя відэаінструменты са штучным інтэлектам развіваюцца хутка, студыі вядуць судовыя працэсы, і «мы дадамо меры бяспекі» становіцца мовай прабачэнняў па змаўчанні. У іроніі сітуацыі тэхналогіі выглядаюць як магія, а юрыдычны бок — як гравітацыя.

Часта задаваныя пытанні

Што азначае, што заснавальнік OpenClaw далучыўся да OpenAI, а OpenClaw перайшоў у фонд?

Гэта сведчыць пра раскол паміж чалавекам, які стварае «персанальных агентаў», і праектам, які застаецца пад дзяржаўным кіраваннем. Далучэнне Штайнбергера да OpenAI мяркуе, што ён засяродзіцца на развіцці прадуктаў у стылі агентаў. Размяшчэнне OpenClaw у фонде мае на мэце захаваць яго адкрыты зыходны код і ўстойлівую падтрымку. На практыцы гэты крок накіраваны на захаванне даверу супольнасці, у той час як распрацоўшчык працуе там, дзе ёсць рэсурсы.

Чаму агенты штучнага інтэлекту ў стылі OpenClaw сканцэнтраваны на такіх хатніх справах, як электронная пошта і папяровая праца?

Паколькі праца па «жыццю і адміністраванні» з'яўляецца паўтаральнай, заснаванай на правілах і працаёмкай, яна з'яўляецца практычнай мэтай для аўтаматызацыі. Прыведзеныя тут прыклады — сартаванне электроннай пошты, афармленне страхавых дакументаў і рэгістрацыя на рэйсы — гэта вузкія задачы з выразна акрэсленымі крытэрыямі поспеху. Такая канцэнтрацыя можа прымусіць агентаў адчуць сябе каштоўнымі раней, чым больш адкрытых памочнікаў. Гэта таксама падкрэслівае, чаму важны дбайны кантроль доступу, калі агенты дакранаюцца да асабістых акаўнтаў.

Як можна разгарнуць агент штучнага інтэлекту з адкрытым зыходным кодам, напрыклад, OpenClaw, не ствараючы праблем бяспекі?

Ставіцеся да яго як да праграмнага забеспячэння, якое можа бачыць канфідэнцыйныя даныя, а не як да цацачнага сцэнарыя. Распаўсюджаны падыход — блакаваць уліковыя даныя, абмежаваць дазволы да неабходнага мінімуму і весці журналы і журналы аўдыту. Запускайце яго ў абмежаваным асяроддзі і аддзяляйце ад высокацэнных сістэм. Шматлікія праблемы бяспекі вынікаюць з нядбайнага разгортвання, асабліва калі людзі раскрываюць канчатковыя кропкі або токены без надзейных мер абароны.

Чаму Пентагон незадаволены абмежаваннямі Anthropic на ваеннае выкарыстанне Claude?

Спрэчка сканцэнтравана на аб'ёме і кантролі: Пентагон хоча шырокага доступу «да ўсіх законных мэтаў», у той час як Anthropic апісваецца як такая, што ўтрымлівае жорсткія абмежаванні на цалкам аўтаномную зброю і масавае назіранне. Чыноўнікі таксама не хочуць, каб мадэлі блакавалі працоўныя працэсы пасярод працэсу або патрабавалі бясконцых перамоваў аб памежных выпадках. Гэта супярэчнасць менш абстрактная, чым здаецца — гаворка ідзе пра тое, хто вырашае, што мадэль можа рабіць у рэальных аперацыях.

Як стартапы спрабуюць прадказаць паводзіны чалавека з дапамогай штучнага інтэлекту, і чаму гэта выклікае спрэчкі?

Прыклад, які мы разглядаем, — гэта мадэль «абмежаванага навучання», накіраваная на прагназаванне таго, што могуць рабіць людзі, у тым ліку прадбачанне верагодных пытанняў у такіх кантэкстах, як канферэнцыі аб прыбытках. Апісаны падыход спалучае інтэрв'ю з дадзенымі паводніцкіх даследаванняў і мадэляваннем з выкарыстаннем агентаў штучнага інтэлекту, прызначаных для адлюстравання рэальных пераваг. Гэта выглядае дзіўна, бо штучны інтэлект пераключаецца з рэагавання на людзей на іх прагназаванне. Задача складаецца ў тым, каб абмежаваць сцвярджэнні і пазбегнуць празмернай самаўпэўненасці.

Што адбываецца, калі відэаінструменты на аснове штучнага інтэлекту ствараюць персанажаў, абароненых аўтарскім правам, як у сутыкненні ByteDance і Disney?

Паведамляецца, што схема знаёмая: студыя выдае загад аб спыненні дзеянняў, і платформа рэагуе, узмацняючы меры бяспекі для прадухілення несанкцыянаванага выкарыстання інтэлектуальнай уласнасці або падабенства. У многіх інструментах меры бяспекі азначаюць больш жорсткія фільтры кантэнту, палепшанае выяўленне пазнавальных персанажаў і больш выразнае выкананне палітыкі карыстальнікаў. Асноўны канфлікт заключаецца ў хуткасці супраць адказнасці — генерацыя вірусаў развіваецца хутка, а забеспячэнне правоў дзейнічае як гравітацыя. Чакайце большай колькасці такіх сутыкненняў па меры распаўсюджвання відэагенератараў.

Учорашнія навіны пра штучны інтэлект: 13 лютага 2026 г

Знайдзіце найноўшы штучны інтэлект у афіцыйнай краме памочнікаў штучнага інтэлекту

Пра нас

Назад да блога