🔐 OpenAI выявіў праблему бяспекі, звязаную з інструментам іншага вытворцы, і заявіў, што доступ да дадзеных карыстальнікаў не атрымліваўся ↗
OpenAI заявіла, што ўзламаны інструмент распрацоўшчыка трэцяга боку закрануў працэс, які выкарыстоўваецца кампаніяй для сертыфікацыі яе праграм для macOS як легітымных. Кампанія заявіла, што не знайшла доказаў таго, што даныя карыстальнікаў былі атрыманы, што яе сістэмы або IP-адрас былі ўзламаныя, або што яе праграмнае забеспячэнне было зменена — што з'яўляецца найважнейшым момантам. ( Reuters )
Практычныя наступствы ўсё яшчэ даволі сур'ёзныя. OpenAI змяніў сертыфікаты і зрабіў крок наперад, каб падробленыя, але пераканаўчыя праграмы ChatGPT не сталі большай праблемай, чым трэба. Гэта не парушэнне, значыць, але хутчэй адзін з тых момантаў, калі трэба абнавіць сваю праграму зараз. ( OpenAI )
🧯 Сэм Альтман адказвае на «падбухторны» артыкул у New Yorker пасля нападу на яго дом ↗
Сэм Альтман публічна выступіў супраць рэзка крытычнага профілю жыхара Нью-Ёрка пасля відавочнай атакі на яго дом, назваўшы некаторыя яго часткі зманлівымі і асабістымі. Усё гэта выглядала незвычайна сырым для пасады генеральнага дырэктара — хутчэй абарончым, чым адшліфаваным, магчыма, наўмысна. ( TechCrunch )
Адначасова паліцыя арыштавала падазраванага ў тэракце Молатава, звязаным з рэзідэнцыяй Альтмана ў Сан-Францыска, але аб пацярпелых не паведамлялася. Такім чынам, гісторыя імгненна перайшла ад крытыкі ў СМІ да фізічнай бяспекі — цяпер гэта стала сапраўднай часткай гісторыі пра штучны інтэлект. ( AP News )
🏗️ Былыя кіраўнікі OpenAI Stargate плануюць далучыцца да Meta Platforms ↗
Паведамляецца, што тры высокапастаўленыя асобы, звязаныя з праектам OpenAI па распрацоўцы інфраструктуры Stargate, накіроўваюцца ў Meta. Гэта не проста адток талентаў — гэта адток талентаў у вылічальнай вайне, які праяўляецца па-рознаму, калі ўсе змагаюцца за цэнтры апрацоўкі дадзеных, чыпы і магутнасці.
Найманыя супрацоўнікі сведчаць аб тым, што Meta не проста траціць вялікія грошы на мадэляў, але і спрабуе паглынуць людзей, якія ведаюць, як будаваць прамысловую сантэхніку пад імі. Магчыма, на паверхні гэта сумна, але менавіта ў гэтым зараз знаходзіцца вялікая частка гонкі. ( Bloomberg )
🛡️ Папярэдні прагляд Клода Міфаса ↗
Anthropic заявіла, што яе новая мадэль Mythos дастаткова магутная ў галіне кібербяспекі, таму яна пакуль не выпускае яе шырока. Замест гэтага яна накіроўваецца ў строга кантраляваныя абарончыя намаганні, бо кампанія лічыць, што мадэль можа выяўляць небяспечныя недахопы праграмнага забеспячэння ў маштабе, які выклікае трывогу. ( Red Anthropic )
Гэтая асцярожнасць ужо распаўсюджваецца. Паводле паведамленняў, амерыканскія чыноўнікі і буйныя фірмы ўспрымаюць павелічэнне магчымасцей мадэлі як сапраўдную праблему бяспекі інфраструктуры, а не проста як чарговы яркі запуск. На гэты раз цыкл штучнага інтэлекту апынуўся пад пагрозай. ( Axios )
☁️ CoreWeave заключае з Anthropic пагадненне аб хмарных тэхналогіях штучнага інтэлекту, акцыі растуць ↗
CoreWeave заявіла, што прадаставіць Anthropic хмарныя вылічэнні ў рамках шматгадовага пагаднення, прычым магутнасці, як чакаецца, будуць запушчаны ў канцы гэтага года. Гэта яшчэ адно напамін пра тое, што ўзорныя кампаніі ўсё яшчэ хуткія толькі настолькі, наколькі хуткі інфраструктурны канвеер пад імі — гламурнае праграмнае забеспячэнне, жорсткія фізічныя вузкія месцы.
Для Anthropic пагадненне ўзмацняе доступ да вылічэнняў для лінейкі Claude. Для CoreWeave гэта яшчэ адзін знак таго, што спецыялізаваныя гульцы ў воблаку штучнага інтэлекту працягваюць адцягваць бізнес ад самага высокага ўзроўню распрацоўшчыкаў мадэляў, які, што нечакана, трымаецца. ( Reuters )
💸 Ацэнка SiFive, якую падтрымлівае Nvidia, дасягнула 3,65 мільярда долараў за адкрытыя чыпы штучнага інтэлекту ↗
SiFive атрымала раўнд інвестыцый у памеры 400 мільёнаў долараў пры ацэнцы ў 3,65 мільярда долараў, што сведчыць пра вялікі давер да адкрытага дызайну чыпаў для сістэм штучнага інтэлекту. Гэта яшчэ не тое, што трон Nvidia пахіснуўся, але гэта паказвае, што інвестары ўсё яшчэ хочуць альтэрнатыўных шляхоў у апаратны стэк штучнага інтэлекту.
Цяжка не заўважыць больш шырокага сэнсу. Штучны інтэлект — гэта ўжо не проста гісторыя мадэлі ці нават чыпа — ён ператвараецца ў барацьбу за тое, якія пласты застаюцца адкрытымі, якія — запатэнтаванымі, і каму плацяць на кожным этапе канвеера. ( TechCrunch )
Часта задаваныя пытанні
Што здарылася з праблемай бяспекі праграмы OpenAI для macOS?
OpenAI заявіла, што ўзламаны інструмент распрацоўшчыка трэцяга боку паўплываў на працэс падпісання, які выкарыстоўваецца для сертыфікацыі яе праграм macOS. Кампанія таксама заявіла, што не знайшла доказаў таго, што даныя карыстальнікаў былі атрыманы, што яе сістэмы або інтэлектуальная ўласнасць былі ўзламаныя, а праграмнае забеспячэнне было зменена. Галоўнай праблемай быў давер і сапраўднасць праграм, а не пацверджанае парушэнне інфармацыі аб кліентах.
Ці варта мне абнаўляць праграму ChatGPT для macOS пасля гэтага інцыдэнту з OpenAI?
Так, абнаўленне праграмы — гэта практычны вынік. OpenAI змяніў сертыфікаты і спрасціў працэс, таму падробленыя, але пераканаўчыя праграмы ChatGPT менш схільныя выклікаць блытаніну або стварыць рызыку. У такіх выпадках самым бяспечным крокам будзе выкарыстанне апошняй афіцыйнай версіі і пазбяганне загрузкі праграм для працоўнага стала з неафіцыйных крыніц або люстраных сайтаў.
Чаму праблема з інструментам распрацоўшчыка іншага вытворцы мае значэнне, калі ніякіх дадзеных не было скрадзена?
Паколькі давер да праграмнага забеспячэння грунтуецца не толькі на доступе да дадзеных. Калі інструмент, які ўдзельнічае ў сертыфікацыі праграм, скампраметаваны, гэта можа выклікаць сумневы ў тым, ці могуць карыстальнікі надзейна ідэнтыфікаваць легітымнае праграмнае забеспячэнне. У многіх вытворчых асяроддзях такая праблема мае значэнне, бо яна ўплывае на бяспеку распаўсюджвання, давер да абнаўленняў і рызыку пераканаўчых спроб выдавання сябе за іншую асобу.
Чаму Meta надае такую вялікую ўвагу найму былых кіраўнікоў OpenAI Stargate і іншых праектаў па развіцці інфраструктуры штучнага інтэлекту?
Гэтыя наймы сведчаць аб канкурэнцыі ніжэй за ўзровень мадэлявання, дзе цэнтры апрацоўкі дадзеных, чыпы, магутнасць і магчымасці разгортвання маюць гэтак жа вялікае значэнне, як і таленты даследчыкаў. Інфраструктура штучнага інтэлекту становіцца стратэгічнай перавагай, а не проста дапаможнай функцыяй. У артыкуле гаворыцца, што Meta спрабуе ўмацаваць прамысловы бок штучнага інтэлекту, а не проста дадаць больш даследчыкаў мадэлявання.
Што такое мадэль Mythos ад Anthropic і чаму кампанія павінна абмяжоўваць яе выпуск?
Anthropic ахарактарызаваў Mythos як дастаткова прасунутую сістэму ў галіне кібербяспекі, таму яна знаходзіцца пад жорсткім кантролем, а не шырока распаўсюджваецца. Занепакоенасць, відаць, заключаецца ў тым, што магутная сістэма для пошуку недахопаў праграмнага забеспячэння можа прапанаваць абарончую каштоўнасць, адначасова павялічваючы рызыку злоўжывання. Распаўсюджаным падыходам у такіх сітуацыях з'яўляецца абмежаваны доступ, вузкае разгортванне і больш пільны кантроль.
Чаму здзелкі па інфраструктуры штучнага інтэлекту і фінансаванне адкрытых чыпаў маюць значэнне для больш шырокага рынку штучнага інтэлекту?
Яны паказваюць, што гонка штучнага інтэлекту ўсё больш фарміруецца доступам да вылічальных тэхналогій і выбарам абсталявання, а не толькі функцыямі чат-ботаў. Здзелка CoreWeave-Anthropic падкрэслівае, як мадэльныя кампаніі ўсё яшчэ залежаць ад хмарных магутнасцей, у той час як фінансаванне SiFive сігналізуе пра цікавасць інвестараў да альтэрнатыў у стэку чыпаў штучнага інтэлекту. У сукупнасці гэтыя крокі сведчаць аб тым, што інфраструктура штучнага інтэлекту становіцца асноўным полем бітвы за рост і кантроль.