🏛️ Урад створыць новую лабараторыю, каб Вялікабрытанія магла хутка развіваць прарывы ў галіне штучнага інтэлекту ↗
У Вялікабрытаніі ствараецца дзяржаўная лабараторыя фундаментальных даследаванняў штучнага інтэлекту, якая прадстаўляе яе як працу «блакітнага неба» — рызыкоўную, павольную, якая часам акупляецца так, што ўсе астатнія выглядаюць так, быццам задрамалі. ( GOV.UK )
Увага надаецца не толькі «большым мадэлям, большай колькасці графічных працэсараў» — яна накіравана на вырашэнне праблем, звязаных з пастаяннымі недахопамі, такімі як галюцынацыі, кароткая памяць і непрадказальнае мысленне, а таксама на прадастаўленне даследчыкам доступу да сур'ёзных вылічэнняў праз рэсурс даследаванняў штучнага інтэлекту. Гучыць вельмі разумна... і таксама, ціха, як спроба не дапусціць імгненнага вывазу найлепшых розумаў Вялікабрытаніі ў іншае месца. ( GOV.UK )
🧨 Генеральны дырэктар Nvidia намякае на спыненне інвестыцый у OpenAI і Anthropic ↗
Джэнсен Хуанг сігналізуе, што Nvidia можа перастаць інвеставаць у перадавыя лабараторыі штучнага інтэлекту ранейшым чынам — дынаміка IPO (і абмяркоўваемы маштаб праверак) робіць рэалізацыю такога тыпу фінансавання больш складанай. ( Reuters )
Гэта зрух у настроі, варты ўвагі: Nvidia — кароль кіркі і рыдлёўкі ва ўсім гэтым буме, але яна намякае, што «валоданне часткамі майнераў» — гэта ўжо не заўсёды гульня. А можа, гэта проста падстрахоўка ўслых, што генеральныя дырэктары робяць, як дыхаюць. ( Reuters )
🧩 Эксклюзіў: Вялікая тэхналагічная група падтрымлівае Anthropic у спрэчцы з Пентагонам, бо інвестары імкнуцца да дээскалацыі канфлікту з нагоды гарантый штучнага інтэлекту ↗
Супрацьстаянне Anthropic з Пентагонам ператвараецца ў сапраўдную хуткаварку — інвестары, як паведамляецца, хочуць знізіць тэмпературу, у той час як кампанія спрабуе прытрымлівацца сваёй пазіцыі ў пытаннях засцярогі (асабліва ў дачыненні да назірання). ( Reuters )
Падтэкст гісторыі амаль гучнейшы за сам тэкст: у эпоху штучнага інтэлекту фармулёўка кантрактаў — гэта не «юрыдычныя прыдзіркі», а, па сутнасці, прадуктовая палітыка, і менавіта яна вырашае, ці стане мадэль інструментам, зброяй ці вялікай адказнасцю. ( Reuters )
🪖 Сэм Альтман прызнае, што OpenAI не можа кантраляваць выкарыстанне штучнага інтэлекту Пентагонам ↗
Паведамляецца, што Альтман сказаў супрацоўнікам, што OpenAI не можа кантраляваць, як Пентагон выкарыстоўвае свой штучны інтэлект пасля яго разгортвання, — што адбылося з глухім стукам, бо назвала менавіта той страх, вакол якога кружыліся людзі. ( The Guardian )
Больш шырокі фон — гэта абвастрэнне супярэчнасцей паміж «мы дапаможам, з правіламі» і «мы дапаможам, кропка», а таксама ўнутраная і грамадская рэакцыя, калі прыняцце ваеннай тэхнікі здаецца паспешлівым або апартуністычным. Этыка тут не столькі акуратная рыса, колькі разліта мокрая фарба — усе наступаюць на яе, а потым спрачаюцца, чый гэта бот. ( The Guardian )
🧬 Новая стыпендыя па штучным інтэлекце ў геноміцы з Інстытутам Сангера і Google DeepMind ↗
Інстытут Wellcome Sanger запускае акадэмічную стыпендыю, якая фінансуецца DeepMind і арыентавана на прымяненне штучнага інтэлекту ў геноміцы. Гэта першая ў сваім родзе стыпендыяльная праграма DeepMind у гэтай канкрэтнай галіне. ( sanger.ac.uk )
Цікава (і, шчыра кажучы, крыху асвяжальна) — гэта акцэнт на недастаткова вывучаных праблемах геномікі, дзе штучны інтэлект яшчэ не паўсюль, а таксама відавочная заўвага пра тое, што DeepMind не кіруе даследаваннямі гэтага супрацоўніка. Гэта як даць камусьці ракету і сказаць: «Ідзі і адкрый нешта», а не «Ідзі і аптымізуй нашу дарожную карту» ( sanger.ac.uk ).
Часта задаваныя пытанні
Што такое Лабараторыя фундаментальных даследаванняў штучнага інтэлекту, якая падтрымліваецца ўрадам Вялікабрытаніі, і чым яна будзе займацца?
Падтрыманая ўрадам Лабараторыя фундаментальных даследаванняў штучнага інтэлекту пазіцыянуецца як даследчая ініцыятыва «блакітнага неба» — высокарызыкоўная праца, якая можа запатрабаваць часу, каб акупіцца. Замест таго, каб засяроджвацца толькі на маштабаванні ўсё большых мадэляў, яна імкнецца вырашаць такія пастаянныя праблемы, як галюцынацыі, кароткая памяць і непрадказальнае мысленне. Ідэя заключаецца ў тым, што прарывы вынікаюць з фундаментальных прынцыпаў, а не проста з дадання большай колькасці графічных працэсараў.
Як Брытанская лабараторыя фундаментальных даследаванняў штучнага інтэлекту можа дапамагчы даследчыкам атрымаць доступ да сур'ёзных вылічэнняў?
Акрамя Брытанскай лабараторыі фундаментальных даследаванняў штучнага інтэлекту, план прадугледжвае доступ да значных вылічальных рэсурсаў праз Рэсурс даследаванняў штучнага інтэлекту. На практыцы гэта азначае, што даследчыкі могуць праводзіць эксперыменты, якія ў адваротным выпадку былі б абмежаваныя выдаткамі або інфраструктурай. Гэта таксама дазваляе камандам тэставаць ідэі ў маштабе, дзе такія праблемы, як надзейнасць і ўстойлівасць, становяцца канкрэтнымі, а не толькі тэарэтычнымі.
Чаму ў Вялікабрытаніі надаюць вялікае значэнне галюцынацыям, кароткай памяці і непрадказальным разважанням?
Такія недахопы выяўляюцца падчас разгортвання і могуць хутка падарваць давер. Заяўленая ўвага сведчыць аб тым, што мэта — не толькі магчымасці, але і надзейнасць — скарачэнне колькасці выдуманых вынікаў, паляпшэнне таго, як мадэлі апрацоўваюць больш працяглы кантэкст, і зніжэнне няўстойлівасці ў разважаннях. Такая праца часта больш павольная і рызыкоўная, таму яна апісваецца як фундаментальнае даследаванне.
Што насамрэч сігналізуе пра змену тону Nvidia адносна інвестыцый у OpenAI або Anthropic?
У справаздачы гэта падае намёк на тое, што Nvidia можа не працягваць інвеставаць у перадавыя лабараторыі такім жа чынам, асабліва ўлічваючы дынаміку IPO і велізарныя памеры чэкаў, якія ўскладняюць гэтую стратэгію. Нават будучы лідэрам у галіне абсталявання штучнага інтэлекту, які выкарыстоўвае прынцып «кіркі і рыдлёўкі», кампанія мяркуе, што долі ўласнасці не заўсёды з'яўляюцца найлепшым крокам. Гэта таксама можа быць асцярожным пасланнем, што звычайна сустракаецца ў каментарах кіраўніцтва.
Чаму спрэчка Anthropic з Пентагонам наконт «фармулёўкі ахоўных мер» такая важная?
Ключавы момант артыкула заключаецца ў тым, што фармулёўка кантракту можа стаць палітыкай прадукту, асабліва калі яна тычыцца назірання і іншых канфідэнцыйных мэтаў. Паведамляецца, што інвестары хочуць дээскалаваць канфлікт, у той час як кампанія спрабуе прытрымлівацца сваёй лініі ў дачыненні да мер бяспекі. У многіх выпадках укаранення штучнага інтэлекту гэтыя пункты вызначаюць, для чаго можа выкарыстоўвацца сістэма і якія рызыкі кампанія фактычна прымае.
Што азначае, калі Сэм Альтман кажа, што OpenAI не можа кантраляваць, як Пентагон выкарыстоўвае штучны інтэлект?
Гэта апісвае практычнае абмежаванне: пасля разгортвання інструмента першапачатковы распрацоўшчык можа мець абмежаваныя магчымасці рэгуляваць яго далейшае выкарыстанне. Гэта мае сур'ёзныя наступствы, бо сведчыць пра асноўны страх, які людзі выказваюць з нагоды ваеннага прыняцця — правілы могуць існаваць на этапе заключэння кантракту, але іх выкананне можа быць складаным. Гэта таксама адлюстроўвае больш шырокую супярэчнасць паміж «дапамогай з абмежаваннямі» і «дапамогай, нягледзячы ні на што»