🌍 OpenAI імкнецца павялічыць глабальнае выкарыстанне штучнага інтэлекту ў паўсядзённым жыцці ↗
OpenAI прасоўвае больш арыентаваную на краіны ініцыятыву — галоўная ідэя: перастаць ставіцца да штучнага інтэлекту як да лабараторнай цацкі і пачаць укараняць яго ў дзяржаўныя паслугі, з якімі людзі сутыкаюцца кожны дзень.
Сярод прапанаваных прыкладаў — разгортванне ў адукацыі (напрыклад, інструменты тыпу ChatGPT, якія выкарыстоўваюцца ў вялікіх маштабах), а таксама праца над практычнымі сістэмамі, такімі як ранняе папярэджанне аб катастрофах, звязаных з вадой. Гэта вельмі падобна на пасыл «гэта павінна быць ціха практычна», які мне не можа не спадабацца... нават калі гэта таксама, ведаеце, бізнес-стратэгія.
⚡ OpenAI абяцае знізіць выдаткі на энергію для Stargate ↗
OpenAI заяўляе, што пакрые выдаткі на энергію, звязаныя з будаўніцтвам цэнтра апрацоўкі дадзеных Stargate, тлумачачы гэта тым, што не хоча павышаць мясцовыя цэны на электраэнергію для ўсіх астатніх.
Гэта можа азначаць фінансаванне новых энергаёмістасцей, захоўвання энергіі, мадэрнізацыі перадач або іншай інфраструктуры, якая не дасць сетцы стагнаць пад нагрузкай. Часткова гэта пазіцыя добрасумленнага грамадзяніна, часткова прэвентыўная палітыка — абедзве рэчы могуць быць праўдай адначасова, як ні дзіўна.
🎧 OpenAI плануе выпусціць сваю першую прыладу ў 2026 годзе, і гэта могуць быць навушнікі ↗
Чуткі пра абсталяванне OpenAI працягваюць назапашвацца, і гэтая чутка сцвярджае, што першай прыладай могуць быць навушнікі — «гідрамет са штучным інтэлектам», які вы носіце, а не проста праграму, якую вы адкрываеце.
Ходзяць чуткі пра кодавую назву («Sweet Pea») і агрэсіўныя крэмніевыя амбіцыі, калі большая частка апрацоўкі адбываецца на прыладзе, а не заўсёды перадаецца ў воблака. Замяніць звычку людзей карыстацца навушнікамі-ўкладышамі — гэта як спрабаваць змяніць курс ракі лыжкай... але, эй, больш дзікія стаўкі на прадукты спрацавалі.
📜 Новая «канстытуцыя» Клода ад Anthropic: будзьце карыснымі і сумленнымі, і не знішчайце чалавецтва ↗
Выданне Anthropic апублікавала абноўленую «Канстытуцыю Клода» — па сутнасці, план каштоўнасцей і паводзін, прызначаны для фарміравання таго, як Клод рэагуе, разважае і адмаўляецца.
Ён усталёўвае больш выразныя межы вакол сапраўды небяспечных рэчаў (зброя, маштабная шкода, захоп улады, змрочныя найвялікшыя хіты), адначасова абапіраючыся на больш тонкія «прынцыпы», а не на жорсткія правілы. Адзін нечакана пікантны момант: ён адкрыта выказвае сумнеў адносна таго, ці заслугоўваюць развітыя штучныя інтэлекты маральнай увагі — не сцвярджае, што заслугоўваюць, а проста разглядае пытанне як рэальнае.
🛡️ Новыя функцыі бяспекі і выяўлення з дапамогай штучнага інтэлекту для Google Workspace for Education ↗
Google абвясціў аб новых функцыях бяспекі Workspace for Education, з асаблівым акцэнтам на выяўленні і праверцы кантэнту, створанага штучным інтэлектам, бо дэзінфармацыя ў школах распаўсюджваецца як бляск і ніколі цалкам не сыходзіць з дывана.
Адной з галоўных асаблівасцей з'яўляецца праверка, звязаная з SynthID, для малюнкаў і відэа, згенераваных штучным інтэлектам, у дадатку Gemini, а таксама больш мацныя меры абароны, такія як выяўленне праграм-вымагальнікаў і прасцейшае аднаўленне файлаў для Дыска на камп'ютары. Гэта спалучэнне сур'ёзнай працы па бяспецы і прынцыпу «калі ласка, даверцеся нам у класах», што... справядліва, калі шчыра.
🚫 Генеральны дырэктар Google DeepMind зноў заяўляе пра адсутнасць планаў па рэкламе Gemini і здзіўлены, што ChatGPT дадаў яе так рана ↗
Дэміс Хасабіс з DeepMind паўтарыў, што ў Gemini няма планаў па рэкламе, і яго крыху здзівіла, што ChatGPT так рана пачаў уключаць рэкламу
Гэта выразны пазіцыянавальны ход — памочнік як прадукт, а не памочнік як рэкламны шчыт. Тым не менш, «няма планаў» — гэта карпаратыўнае выказванне «спытайце мяне пазней», таму… паглядзім, наколькі моцным апынецца гэтае абяцанне.
🏛️ Новыя рэкамендацыі дапамогуць Вялікабрытаніі эфектыўна і адказна рэгуляваць штучны інтэлект ↗
Інстытут Алана Цьюрынга апублікаваў структуру рэгулятарных магчымасцей і інструмент самаацэнкі, прызначаныя для таго, каб дапамагчы рэгулятарам Вялікабрытаніі ацаніць, ці гатовыя яны кантраляваць штучны інтэлект.
Гэта вельмі непрывабна — кантрольныя спісы, фактары магчымасцей, заявы «як выглядае добра» — але ў гэтым і сэнс. Сапраўднае кіраванне звычайна выглядае як паперы з вострымі краямі, а не як яркія прамовы... ці, прынамсі, так здаецца.
Часта задаваныя пытанні
Якія намаганні OpenAI, арыентаваныя на канкрэтныя краіны, накіраваны на пашырэнне глабальнага выкарыстання штучнага інтэлекту ў паўсядзённым жыцці?
Гэта крок ад таго, каб разглядаць штучны інтэлект як асобны прадукт, і накіраваны на яго інтэграцыю ў дзяржаўныя службы, ад якіх людзі карыстаюцца кожны дзень. Мэта складаецца ў тым, каб уключыць штучны інтэлект у практычныя сістэмы з высокім узроўнем дакранання, а не пакідаць яго ў «лабараторных» дэманстрацыях. Прыкладамі з'яўляюцца маштабнае разгортванне ў адукацыі і інструменты бяспекі, арыентаваныя на насельніцтва. Гэта падаецца як ціха карыснае, нават калі яно падтрымлівае больш шырокую стратэгію ўкаранення OpenAI.
Як план OpenAI можа адлюстравацца ў такіх дзяржаўных паслугах, як адукацыя або рэагаванне на стыхійныя бедствы?
У адукацыі канцэпцыя заключаецца ў маштабным разгортванні інструментаў у стылі ChatGPT, каб школы маглі ўкараняць штучны інтэлект у звычайныя навучальныя працэсы. У сферы рэагавання на стыхійныя бедствы OpenAI вылучыў сістэмы ранняга папярэджання, звязаныя з вадой, як прыклад «ціха практычнай» інфраструктуры. Агульнай рысай з'яўляецца дапамога, якая аказваецца ў патрэбны момант, з дапамогай інструментаў, убудаваных у існуючыя службы. Поспех, верагодна, будзе залежаць ад надзейнасці, кантролю і абгрунтаванай інтэграцыі.
Чаму OpenAI заявіў, што пакрые выдаткі на энергію для будаўніцтва цэнтра апрацоўкі дадзеных Stargate?
OpenAI пазіцыянаваў гэта як намаганне не павышаць мясцовыя цэны на электраэнергію, ствараючы велізарны новы попыт на электрасетку. Пакрыццё выдаткаў можа ўключаць фінансаванне новых энергаёмістасцей, захоўвання дадзеных, мадэрнізацыі перадач або іншай інфраструктуры, якая зніжае нагрузку. Гэта пазіцыянуецца як крок добрасуседа і спосаб прадухіліць палітычны і грамадскі супраціў. На практыцы гэта сігналізуе аб тым, што ўплыў на энергію цяпер з'яўляецца цэнтральным у планах маштабавання штучнага інтэлекту.
Якія апошнія чуткі пра абсталяванне OpenAI — ці сапраўды верагодныя навушнікі «на базе штучнага інтэлекту»?
У справаздачы гаворыцца, што OpenAI плануе выпусціць сваю першую прыладу ў 2026 годзе, прычым патэнцыйным форм-фактарам будуць навушнікі. Канцэпцыя прадугледжвае «першую ў свеце штучны інтэлект» прыладу, якую вы будзеце выкарыстоўваць пастаянна, а не проста адкрыць праграму. Ходзяць чуткі пра кодавую назву («Sweet Pea») і амбіцыі па большай апрацоўцы дадзеных на прыладзе, а не цалкам залежаць ад воблака. Такі падыход можа зрабіць узаемадзеянне больш хуткім і прыватным, у залежнасці ад рэалізацыі.
Што такое абноўленая «Канстытуцыя Клода» ад Anthropic і што яна змяняе?
Гэта апублікаваны план каштоўнасцей і паводзін, прызначаны для фарміравання таго, як Клод рэагуе, абгрунтоўвае і адхіляе запыты. Абнаўленне падкрэслівае больш выразныя межы вакол сапраўды небяспечных абласцей, такіх як зброя, маштабная шкода і паводзіны, накіраваныя на імкненне да ўлады. Яно таксама схіляецца да больш тонкіх «прынцыпаў» замест жорсткіх правілаў. Прыкметна, што пытанне маральнага разгляду для развітых штучных інтэлектаў разглядаецца як адкрытае пытанне, а не як вырашаная прэтэнзія.
Якія новыя функцыі бяспекі і выяўлення з дапамогай штучнага інтэлекту Google дадаў у Workspace for Education?
Google абвясціў аб узмацненні абароны Workspace for Education, у тым ліку аб выяўленні і праверцы кантэнту, створанага штучным інтэлектам. Адной з галоўных асаблівасцей з'яўляецца праверка, звязаная з SynthID, для малюнкаў і відэа, створаных штучным інтэлектам, у дадатку Gemini. У абнаўленні таксама згадваецца выяўленне праграм-вымагальнікаў і больш простае аднаўленне файлаў для Дыска на камп'ютары. У цэлым, яно пазіцыянуецца як праца па забеспячэнні бяспекі, арыентаваная на клас, накіраваная на дапамогу школам у больш эфектыўнай барацьбе з дэзінфармацыяй і інцыдэнтамі.
Ці будзе Gemini ад Google паказваць рэкламу, і чаму DeepMind пракаментаваў даданне яе ў ChatGPT?
Генеральны дырэктар DeepMind Дэміс Хасабіс паўтарыў, што ў Gemini «няма планаў» адносна рэкламы, і выказаў здзіўленне тым, што ChatGPT перайшоў да рэкламы «так рана». Гэта паведамленне пазіцыянуе Gemini як памочніка-прадукт, а не як памочніка-рэкламны шчыт. У той жа час «адсутнасць планаў» пакідае месца для будучых змен без якіх-небудзь абавязковых абяцанняў. Для карыстальнікаў гэта падкрэслівае новы падзел бізнес-мадэляў спажывецкіх памочнікаў са штучным інтэлектам.
Што павінна рабіць сістэма рэгулявання магчымасцей штучнага інтэлекту Інстытута Алана Цьюрынга?
Гэта структура рэгулятарных магчымасцей і інструмент самаацэнкі, прызначаныя для таго, каб дапамагчы рэгулятарам Вялікабрытаніі ацаніць, ці маюць яны неабходныя тэхнічныя магчымасці для эфектыўнага кантролю за штучным інтэлектам. Падыход наўмысна непрывабны: кантрольныя спісы, фактары магчымасцей і заявы пра тое, «як выглядае добра». Мэта складаецца ў тым, каб зрабіць кіраванне аператыўным, а не проста жаданым. Гэта найбольш карысна для рэгулятараў і палітычных каманд, якім неабходна выявіць прабелы, перш чым пачнецца правапрымяненне або кантроль.