🧯 OpenAI наймае новага кіраўніка аддзела падрыхтоўкі, каб паспрабаваць прадказаць і змякчыць шкоду ад штучнага інтэлекту ↗
OpenAI абвясціў аб пасаде «Кіраўніка па падрыхтоўцы» — па сутнасці, чалавека, якому даручана ўявіць найгоршыя верагодныя спосабы выкарыстання мадэляў межаў, а затым пабудаваць ахоўныя парэнчы, якія вытрымаюць ціск (а не толькі вібрацыі і PDF-файлы палітыкі).
У спісе робіцца акцэнт на мадэляванні пагроз, ацэнках і мерах па змякчэнні іх наступстваў як на рэальным аперацыйным канвееры. Гэта праца па бяспецы, аформленая як распрацоўка праграмнага забеспячэння — супакойвае ў адзін момант, а ў наступны — трохі палохае, бо сведчыць пра тое, што рызыкі цяпер маюць канкрэтную прадукцыю.
🧑⚖️ Кітай апублікаваў праект правілаў для рэгулявання штучнага інтэлекту з узаемадзеяннем, падобным да чалавечага ↗
Кітайскі кіберрэгулятар распаўсюдзіў праект правілаў, накіраваных на сэрвісы штучнага інтэлекту, якія імітуюць чалавечыя асобы і эмацыйна ўзаемадзейнічаюць з карыстальнікамі — балбатлівыя спадарожнікі, какетлівыя памочнікі і ўсю гэтую зону «ці вы сапраўдныя?».
Адзін момант, які вылучаецца: пастаўшчыкам паслуг трэба будзе папярэджваць аб празмерным ужыванні і ўмешвацца, калі карыстальнікі праяўляюць прыкметы залежнасці. Там незвычайна выразна гаворыцца пра псіхалагічную рызыку — быццам хтосьці паглядзеў на тэндэнцыю «сябра са штучным інтэлектам» і вырашыў, што не без рамянёў бяспекі.
🧩 Бывай, GPT-5. Прывітанне, Квен ↗
Паводле меркавання Wired, Qwen заваёўвае сэрцы не тым, што з'яўляецца галоўным эталонным зверам, а тым, што мае адкрытую вагу і лёгкасць у мантажы — што на практыцы і выбіраюць будаўнікі. Гэта «інструмент, які можна рэальна трымаць у руках», а не той, што за аксамітнай вяроўкай.
У артыкуле гэта апісваецца як больш шырокі зрух: адкрытыя мадэлі, якія акуратна ўпісваюцца ў прадукты (і дапрацоўваюцца ўнутры кампаніі), могуць мець большае значэнне, чым нязначныя поспехі ў табліцы лідэраў. Трохі пікантна, магчыма, крыху непрыязна да закрытых лабараторый... але атмасфера застаецца нязменнай.
🎁 Абмежаванні на выкарыстанне OpenAI і Anthropic падвойнага штучнага інтэлекту ў святочным стымуляванні для распрацоўшчыкаў: усё, што вам трэба ведаць ↗
OpenAI і Anthropic часова павялічылі ліміты выкарыстання сваіх інструментаў, арыентаваных на кадаванне, даючы асобным падпісчыкам больш магчымасцей для выканання больш складаных працоўных працэсаў без неадкладнага абмяжоўвання выдаткаў.
Mint адзначае, што павышэнне накіравана на вопытных карыстальнікаў, а пасля заканчэння акцыйнага перыяду ўсё вяртаецца на свае месцы. Гэта прыемны момант «вось вам яшчэ энергіі», а таксама ціхае напамін пра тое, што ёмістасць усё яшчэ з'яўляецца абмежаваннем, якое адчуваецца.
💻 Сузаснавальнік Google DeepMind Шэйн Лег усталёўвае «правіла ноўтбука», каб вызначыць, ці можа штучны інтэлект замяніць вашу працу ↗
Шэйн Лег выказаў прамую эўрыстыку: калі працу можна цалкам выканаць з дапамогай ноўтбука (экран, клавіятура, мікрафон, камера і г.д.), то гэта той від кагнітыўнай працы, у якім усё часцей можа працаваць перадавы штучны інтэлект.
Ён таксама крыху падстрахаваўся, адзначыўшы, што некаторая «цалкам анлайн-» праца ўсё яшчэ абапіраецца на чалавечыя сувязі і асобу. Так што так, правіла строгае... але гэта не гільяціна, хутчэй штормавае папярэджанне.