🧒 OpenAI запускае прагназаванне ўзросту ў ChatGPT ↗
OpenAI пачаў укараняць пласт «прагназавання ўзросту» ў ChatGPT — ціхую сістэму, якая спрабуе вызначыць, ці належыць уліковы запіс непаўналетняй асобе, а затым уключае дадатковыя парэнчы бяспекі. Калі сістэма лічыць, што вам менш за 18 гадоў, яна аўтаматычна звужае доступ да больш канфідэнцыйнага кантэнту.
Калі здагадка памыляецца (што… часам здараецца), рашэннем з'яўляецца праверка асобы праз Persona з выкарыстаннем сэлфі. Гэта таксама ўпісваецца ў больш шырокія змены платформы, такія як эксперыменты з «рэжымам для дарослых» і манетызацыяй, якія, шчыра кажучы, адчуваюцца як некалькі талерак, якія круцяцца адначасова.
🏦 Брытаніі патрэбныя «стрэс-тэсты штучнага інтэлекту» для фінансавых паслуг, кажуць заканадаўцы ↗
Брытанскія заканадаўцы ў асноўным кажуць: перастаньце спакойна ставіцца да штучнага інтэлекту ў фінансах. Іх аргумент заключаецца ў тым, што рэгулятары і ўрад павінны праводзіць стрэс-тэсты на сістэмы штучнага інтэлекту гэтак жа, як банкі праходзяць стрэс-тэставанне, бо «ой» у грашовай сферы мае тэндэнцыю хутка распаўсюджвацца.
Праблема такая, што выяўляецца толькі ў вялікіх маштабах: прадузятасць, каскады памылак, мадэлі махлярства, цыклы зваротнай сувязі. Гэта як дазволіць малому кіраваць аўтобусам, таму што дарога прамая... пакуль раптам яна не перастане.
🏛️ Чэмпіёны па штучным інтэлекце прызначаныя, каб дапамагчы гораду бяспечна выкарыстоўваць магчымасці штучнага інтэлекту ↗
Урад Вялікабрытаніі прызначыў двух «чэмпіёнаў па штучным інтэлекце», каб дапамагчы паскорыць укараненне штучнага інтэлекту ў фінансавых паслугах — са звычайнымі абяцаннямі росту, прадукцыйнасці, інвестыцый і ўсёй гэтай прыгожай тэхнікі.
Характэрна, што гэта балансаванне: энергія «рухайся хутка» з надпісам «бяспечна» зверху. Суцяшальна… ці злёгку камічна, у залежнасці ад вашага настрою ў гэты дзень.
💰 Humans&, «чалавекаарыентаваны» стартап у галіне штучнага інтэлекту, заснаваны выпускнікамі Anthropic, xAI і Google, прыцягнуў 480 мільёнаў долараў пачатковага інвестыцыйнага раўнда ↗
Humans& прыбылі з велізарным пачатковым раўндам і камандай, якая чытаецца як «стартавы пакет лабараторыі штучнага інтэлекту» — людзі з буйных мадэльных майстэрняў і буйных тэхналагічных кампаній. Заяўленая мэта — менш чат-ботаў і больш «дапамагаць людзям каардынаваць і супрацоўнічаць» з сістэмамі, якія могуць працаваць як з людзьмі, так і з агентамі штучнага інтэлекту.
Гэта шмат грошай за нешта яшчэ ранняе, што альбо сведчыць пра ўпэўненасць рынку... альбо пра тое, што мы ўсе разам купляем феерверкі, таму што нам падабаецца іх гук. Шчыра кажучы, магчыма, і тое, і другое.
⚖️ Юрыдычны стартап Ivo ў галіне штучнага інтэлекту прыцягвае 55 мільёнаў долараў у чарговым раўндзе фінансавання ↗
Юрыдычны стартап Ivo, які спецыялізуецца на штучным інтэлекце, прыцягнуў новае фінансаванне для развіцця сваёй платформы і павелічэння продажаў, скарыстаўшыся тым, што юрыдычныя фірмы і ўласныя юрыдычныя каманды аўтаматызуюць працаёмкія папяровыя працэсы.
Гэтая катэгорыя пастаянна перамагае, бо яе каштоўнасць відавочная і простая: менш гадзін, затрачаных на паўтаральную працу з дакументамі, менш рэчаў, якія праслізгваюць скрозь шчыліны. Не гламурна, але вельмі і вельмі аплачваецца.
🧠 Тайваньская кампанія Inventec заяўляе, што рашэнне па чыпе Nvidia H200, відаць, «затрымалася» на баку Кітая ↗
Тайваньскі вытворца сервераў заявіў, што пытанне продажу чыпа Nvidia H200 для штучнага інтэлекту ў Кітай, здаецца, «затрымалася», маючы на ўвазе, што вузкім месцам з'яўляюцца не толькі знешнія правілы, але і дазволы з боку Кітая або ўнутраная дынаміка.
Гэта непрывабная рэальнасць апаратнага забеспячэння штучнага інтэлекту: усе кажуць пра мадэлі і агентаў, але ўся будучыня можа залежаць ад некалькіх вузкіх месцаў, дазволаў і палітыкі ў ланцужку паставак. Гэта як планаваць запуск ракеты... а потым разумець, што забыўся ключ ад паліўнага клапана.
Часта задаваныя пытанні
Што прадказвае OpenAI узрост у ChatGPT, і што зменіцца, калі вас пазначылі як асобу, якая не дасягнула 18 гадоў?
OpenAI увёў нізкапрафільны пласт «прагназавання ўзросту», які спрабуе вызначыць, ці належыць уліковы запіс непаўналетняй асобе. Калі сістэма вызначае, што вам менш за 18 гадоў, ChatGPT аўтаматычна ўжывае дадатковыя парогі бяспекі. На практыцы гэта звычайна азначае больш жорсткія абмежаванні на кантэнт, які лічыцца больш канфідэнцыйным. Мэта складаецца ў тым, каб знізіць рызыку, не прымушаючы кожнага карыстальніка загадзя паведамляць свой узрост.
Што адбудзецца, калі прагноз узросту ChatGPT будзе няправільным?
Калі прагназаванне ўзросту ў ChatGPT не спрацоўвае і дарослы пазначаецца як маладзейшы за 18 гадоў, заяўленым рашэннем з'яўляецца праверка асобы. У гэтым рэалізацыі гэтая праверка ажыццяўляецца праз Persona з выкарыстаннем сэлфі. Пасля праверкі ўліковы запіс можа вярнуцца да звычайнага доступу, а не заставацца заблакаваным за больш строгімі абмежаваннямі. Гэта кампраміс: менш рызыкоўных памежных выпадкаў і дадатковыя праблемы, калі сістэма адгадвае няправільна.
Як праверка сэлфі Persona ўпісваецца ў падыход OpenAI да бяспекі?
Персона служыць механізмам для вырашэння нявызначанасці, звязанай з узростам, калі высновы сістэмы ўспрымаюцца як ненадзейныя. Працэс праверкі асобы на аснове сэлфі пазіцыянуецца як карэктыўны крок пасля няправільнага прагнозу ўзросту. На многіх платформах гэты тып кроку выкарыстоўваецца для балансавання бяспекі і доступу без пастаяннай блакіроўкі законных карыстальнікаў. Гэта таксама сведчыць аб больш жорсткім прымяненні на ўзроўні ўліковага запісу, а не толькі на ўзроўні запытаў.
Чаму OpenAI дадае ўзроставыя абмежаванні зараз, і якое дачыненне гэта мае да «рэжыму для дарослых»?
Гэта абнаўленне з'яўляецца адначасова з больш шырокімі зменамі платформы, у тым ліку эксперыментамі з «рэжымам для дарослых» і крокамі па манетызацыі, згаданымі ў той жа дыскусіі. Прагназаванне ўзросту ў ChatGPT фактычна становіцца перамыкачом, які вызначае, хто атрымае больш строгія налады па змаўчанні, а хто — больш шырокі доступ. Гэта карысна для платформы, якая тэстуе розныя ўражанні для розных аўдыторый. Гэта таксама можа абмежаваць уздзеянне больш рызыкоўнага кантэнту, адначасова дазваляючы пашырацца ў іншых месцах.
Што такое «стрэс-тэсты штучнага інтэлекту» для фінансавых паслуг Вялікабрытаніі і чаму яны патрэбныя заканадаўцам?
Брытанскія заканадаўцы заклікаюць да правядзення «стрэс-тэстаў штучнага інтэлекту», якія б разглядалі сістэмы штучнага інтэлекту як банкі: правяралі б іх да таго, як праблемы распаўсюдзяцца. Занепакоенасць выклікае тое, што прадузятасць, каскады памылак, мадэлі махлярства і цыклы зваротнай сувязі могуць стаць бачнымі толькі ў вялікіх маштабах. У фінансах невялікія збоі могуць хутка распаўсюджвацца праз цесна ўзаемазвязаныя сістэмы. Стрэс-тэставанне прызначана для таго, каб выявіць слабыя месцы раней, да таго, як пацярпяць рэальныя грошы і рэальныя кліенты.
Хто з'яўляецца брытанскімі «чэмпіёнамі па штучным інтэлекце» для горада і што яны павінны рабіць?
Урад Вялікабрытаніі прызначыў двух «чэмпіёнаў па штучным інтэлекце», каб дапамагчы паскорыць укараненне штучнага інтэлекту ў фінансавых паслугах. Іх роля заключаецца ў тым, каб дапамагчы гораду скарыстацца магчымасцямі штучнага інтэлекту, робячы гэта «бяспечна». На практыцы гэта азначае каардынацыю і адстойванне інтарэсаў: заахвочванне ўкаранення, падтрымка перадавой практыкі і ўзгадненне інтарэсаў зацікаўленых бакоў. Гэта сігналізуе аб тым, што ўрад хоча больш хуткага ўкаранення з бачнай абалонкай бяспекі вакол яго.