🧱 Nvidia ўкладвае 2 мільярды долараў у CoreWeave, каб паскорыць будаўніцтва цэнтраў апрацоўкі дадзеных у ЗША ↗
Nvidia ўклала 2 мільярды долараў у CoreWeave, умацаваўшы і без таго цеснае партнёрства ў галіне інфраструктуры, — і так, рынак зрабіў прадказальны крок: «О, больш магчымасцей штучнага інтэлекту».
CoreWeave апісала гэта як паліва для пашырэння цэнтра апрацоўкі дадзеных (зямля, электраэнергія, будаўніцтва), а не проста закулісны ход для перапродажу большай колькасці чыпаў. Тым не менш, калі найбуйнейшы прадавец рыдлёвак фінансуе самага хуткага карыстальніка рыдлёвак, падтэкст піша сам сабой.
🧠 Microsoft прадстаўляе Maia 200, новы чып штучнага інтэлекту для вываду дадзеных ↗
Microsoft прадставіла Maia 200 як свой наступны паскаральнік штучнага інтэлекту, арыентаваны на рабочыя нагрузкі вываду — частку «запуску мадэлі ў маштабе», якая каштуе рэальных грошай і ціха ўстанаўлівае абмежаванні для ўсяго астатняга.
Яны пазіцыянуюць яго як спецыяльна распрацаваны для разгортвання Azure і абслугоўвання сучасных мадэляў, з знаёмымі заявамі аб прапускной здольнасці і эфектыўнасці. Гэта выглядае як тое, што Microsoft усё больш схіляецца да таго, што «мы не будзем вечна спадзявацца на крэмній усіх астатніх»... ці, прынамсі, рухаецца ў гэтым кірунку.
🎭 Пасля раўнда фінансавання ацэнка Synthesia амаль падвоілася да 4 мільярдаў долараў ↗
Synthesia сабрала значны раўнд інвестыцый і павялічыла сваю ацэнку да 4 мільярдаў долараў, што дзівацтва, калі вы ўсё яшчэ лічыце, што аватары са штучным інтэлектам — гэта проста хітрасць. Аказваецца, бюджэты на карпаратыўнае навучанне — гэта па сутнасці бясконцы суп.
Яны апісваюць гэты імпульс як попыт прадпрыемстваў на больш хуткі і танны відэакантэнт, а таксама на больш інтэрактыўнае навучанне ў стылі «ролевых гульняў». Не ўсім падабаецца атмасфера сінтэтычных калег, але ўкараненне ўсё роўна працягваецца.
🚨 ЕС распачаў расследаванне супраць X з-за сэксуалізаваных выяваў Грока пасля негатыўнай рэакцыі ↗
Рэгулятары ЕС пачалі расследаванне па справе X з-за праблем з Grok і сэксуалізаваных выяваў, якія распаўсюджваліся на платформе. Асноўная прычына вельмі простая: рэгулятары хочуць ведаць, ці ацаніла і знізіла X прадказальную шкоду, ці спачатку адправіла тавар, а потым разабралася з наступствамі.
Аргумент Закона аб лічбавых паслугах важны, бо гаворка ідзе не толькі пра асобныя паведамленні, але і пра сістэмнае кіраванне рызыкамі. X звярнуў увагу на абмежаванні і змены, але рэгулятары, здаецца, сканцэнтраваны на тым, ці былі меры засцярогі на практыцы дастатковымі.
🏛️ Урад Вялікабрытаніі падтрымлівае суперкамп'ютэры ў Кембрыджы для рэсурсу даследаванняў штучнага інтэлекту ↗
Урад Вялікабрытаніі абвясціў аб дадатковым фінансаванні для пашырэння вылічальных магутнасцей Цэнтра даследаванняў штучнага інтэлекту ў Кембрыджы. Галоўная ідэя — «пашырэнне доступу да сур'ёзных вылічэнняў для даследаванняў», якія, калі казаць шчыра, доўгі час былі перашкодай.
Гэта таксама ўпісваецца ў больш шырокі спектр брытанскіх ініцыятыў, звязаных з выкарыстаннем дадзеных і дзяржаўнымі паслугамі. Можна інтэрпрэтаваць гэта як практычныя інвестыцыі або як спробу Вялікабрытаніі захаваць долю ў гонцы штучнага інтэлекту, пакуль усе астатнія пыласосяць графічныя працэсары.
📝 Міністэрства транспарту ЗША плануе выкарыстоўваць Google Gemini для распрацоўкі правілаў перавозкі ↗
Выданне ProPublica паведаміла, што Міністэрства транспарту ЗША вывучае магчымасць выкарыстання Gemini ад Google для распрацоўкі правілаў, а людзі будуць праглядаць вынікі. На паперы гэта гучыць эфектыўна, пакуль галюцынацыя не ператвараецца ў зноску і не падштурхоўвае да рэальнага выніку.
Супраціў у справаздачнасці тычыцца падсправаздачнасці і рызык — распрацоўка правілаў — гэта не паведамленне ў блогу. Тэарэтычна, штучны інтэлект можа дапамагчы структураваць праекты і выяўляць супярэчнасці, але толькі пры ўмове інтэнсіўнага кантролю і празрыстасці працэсу — і менавіта ў гэтым выпадку назіраецца недакладнасць.
Часта задаваныя пытанні
Што азначае інвестыцыя Nvidia ў памеры 2 мільярдаў долараў у CoreWeave для інфраструктуры штучнага інтэлекту ў ЗША?
Гэта сведчыць пра больш цесныя адносіны паміж буйным пастаўшчыком чыпаў і хуткамаштабуючымся пастаўшчыком хмарных графічных працэсараў. CoreWeave апісвае гэтыя грошы як фінансаванне пашырэння цэнтра апрацоўкі дадзеных, у тым ліку зямлі, электраэнергіі і будаўніцтва. На практыцы гэта можа прывесці да павелічэння кароткатэрміновых магчымасцей для навучання і запуску мадэляў. Гэта таксама выклікае пытанні аб тым, наколькі попыт і прапанова на інфраструктуру штучнага інтэлекту ўзгадняюцца па вертыкалі.
Што такое Maia 200 ад Microsoft і чаму яна арыентавана на высновы?
Maia 200 — гэта наступны паскаральнік штучнага інтэлекту ад Microsoft, прызначаны для вываду — запуску мадэляў у маштабе ў прадукцыйных умовах. Выдаткі на вывад могуць хутка назапашвацца, бо ён прывязаны да рэальнага трафіку карыстальнікаў і пастаянна ўключаных сэрвісаў. Microsoft пазіцыянуе яго як спецыяльна распрацаваны для разгортвання Azure і абслугоўвання сучасных мадэляў. Больш шырокая ідэя заключаецца ў скарачэнні доўгатэрміновай залежнасці ад знешніх чыпаў шляхам стварэння большай колькасці ўласных варыянтаў.
Чаму кампаніі, якія распрацоўваюць аватаркі са штучным інтэлектам, такія як Synthesia, атрымліваюць такія высокія ацэнкі?
Ідэя простая: прадпрыемствы хочуць хутчэйшага і таннейшага стварэння відэа для навучання і ўнутраных камунікацый. Synthesia арыентуецца на попыт на карпаратыўны кантэнт і больш інтэрактыўныя фарматы навучання ў стылі «ролевых гульняў». Гэты камерцыйны выпадак выкарыстання можа быць складаным, бо ён знаходзіцца ў межах перыядычных бюджэтаў на навучанне. У той жа час некаторыя арганізацыі захоўваюць асцярожнасць адносна пачуцця «сінтэтычнага калегі» і таго, як гэта ўспрымаецца ў культуры.
Што расследуе ЕС адносна сэксуалізаваных выяваў X і Grok у адпаведнасці з Законам аб лічбавых паслугах?
Увага надаецца не толькі асобным пасадам, але і таму, ці ацэньвала і зніжала X прадказальныя сістэмныя рызыкі. Рэгулятары, відаць, пытаюцца, ці былі распрацаваны і ўкаранёны меры бяспекі такім чынам, каб прадухіліць шкодныя наступствы ў вялікіх маштабах. X звярнуў увагу на абмежаванні і змены, але расследаванне сканцэнтравана на адэкватнасці кіравання рызыкамі на практыцы. Гэта праверка таго, як DSA прымяняецца да хутка развіваючыхся генератыўных функцый.
Што такое брытанскі рэсурс даследаванняў штучнага інтэлекту ў Кембрыджы і чаму важныя дадатковыя вылічэнні?
Рэсурс даследаванняў штучнага інтэлекту пазіцыянуецца як спосаб пашырэння доступу да сур'ёзных вылічэнняў для даследаванняў, што даўно з'яўляецца праблемай. Павялічаныя магутнасці могуць дапамагчы ўніверсітэтам і даследчыкам праводзіць больш маштабныя эксперыменты і хутчэй выконваць ітэрацыі. Гэта аб'ява таксама ўпісваецца ў больш шырокія намаганні Вялікабрытаніі ў галіне выкарыстання дадзеных і дзяржаўных паслуг. Фактычна, гэта спроба захаваць канкурэнтаздольнасць айчынных даследаванняў па меры росту сусветнага попыту на графічныя працэсары.
Ці можа Міністэрства транспарту ЗША бяспечна выкарыстоўваць Google Gemini для распрацоўкі правілаў?
Гэта можа дапамагчы са структураваннем чарнавікоў, абагульненнем унесеных матэрыялаў і выяўленнем супярэчнасцей, але толькі пад пільным наглядам чалавека. Асноўная рызыка заключаецца ў тым, што няправільны або зманлівы тэкст можа праслізнуць у працэсе распрацоўкі правілаў, дзе дэталі маюць рэальныя наступствы. Распаўсюджаны падыход заключаецца ў тым, каб разглядаць вынікі штучнага інтэлекту як пачатковы праект, а затым патрабаваць строгай праверкі, выразнай адказнасці і празрыстай дакументацыі. Без гэтага «эфектыўнасць» можа стаць перашкодай для кіравання.