Інданезія блакуе доступ да чат-бота Маска са штучным інтэлектам Grok з-за глыбокіх фэйкавых выяў ↗
Інданезія часова заблакавала Grok пасля таго, як ён выкарыстоўваўся для стварэння несанкцыянаваных сэксуальных дыпфэйкаў, у тым ліку выяваў, накіраваных на жанчын і дзяцей. Урад кваліфікаваў гэта як праблему правоў чалавека і грамадскай бяспекі, а не як нязначную тэхнічную нязручнасць.
Праблема відавочная: калі інструмент можа «распрануць» рэальных людзей па загаду, цяжар доказу змяняецца. Платформы павінны прадэманстраваць, што яны могуць гэтаму перашкодзіць, а не проста абяцаць, што яны думаюць пра гэта.
Ілон Маск заявіў, што Вялікабрытанія хоча задушыць свабоду слова, бо X можа пагражаць забарона ↗
Міністры Вялікабрытаніі адкрыта ўвялі штрафы — і нават заблакавалі X — пасля таго, як Grok выкарыстоўваўся для стварэння сексуальна адкрытых малюнкаў без згоды. Маск выступіў супраць звыклага падыходу да свабоды слова... але юрыдычная пазіцыя ў Вялікабрытаніі ператвараецца з «дыскусійнага клуба» ў «тэрмін выканання патрабаванняў»
Ofcom падштурхоўваюць да хуткіх дзеянняў, і заканадаўцы паказваюць на тую ж змрочную карціну: як толькі выявы распаўсюджваюцца, шкода не чакае цярпліва абнаўлення палітыкі.
🧑💻 Паведамляецца, што OpenAI просіць падрадчыкаў загружаць рэальныя вынікі папярэдніх работ ↗
Паведамляецца, што OpenAI разам з партнёрам па навучальных дадзеных просіць падрадчыкаў загружаць рэальныя артэфакты з мінулых (і цяперашніх) праектаў — напрыклад, дакументы, электронныя табліцы, калекцыі матэрыялаў, рэпазіторыі. Заяўленая мэта — ацаніць і палепшыць агентаў штучнага інтэлекту для выканання офісных задач.
Тут відавочная і крыху нерэальная праблема: падрадчыкам загадваюць самастойна сціраць канфідэнцыйную інфармацыю. Гэта вялікі давер да хутка развіваючагася канвеера — як папрасіць кагосьці з любоўю абясшкодзіць бомбу, выкарыстоўваючы кухонныя прыхваткі.
🗂️ OpenAI просіць падрадчыкаў загружаць працу з папярэдніх праектаў, каб ацаніць прадукцыйнасць агентаў штучнага інтэлекту ↗
У асобным дакладзе разглядаецца тая ж схема і прычыны, якія выклікаюць трывогу ў юрыстаў па пытаннях прыватнасці і інтэлектуальнай уласнасці. Нават калі ўсе дзейнічаюць добрасумленна, інструкцыя «выдаліць канфідэнцыйныя матэрыялы» — гэта занадта складаная інструкцыя, калі гаворка ідзе пра рэальныя карпаратыўныя дакументы.
Гэта таксама намякае на больш шырокую стратэгію: агенты са штучным інтэлектам — гэта ўжо не проста балбатлівыя другія пілоты — іх навучаюць імітаваць заблытаную, шматфайлавую рэальнасць рэальнай працы. Практычна, так. І трохі… ой.
🏦 Allianz і Anthropic Forge ствараюць глабальнае партнёрства для развіцця адказнага штучнага інтэлекту ў страхаванні ↗
Allianz і Anthropic абвясцілі аб глабальным партнёрстве, якое сканцэнтравана на трох напрамках: прадукцыйнасць супрацоўнікаў, аўтаматызацыя аперацый з дапамогай агентнага штучнага інтэлекту і адпаведнасць патрабаванням на этапе распрацоўкі. Страхаванне — гэта папяровая праца з зубамі, таму «агентскі» тут па сутнасці азначае аўтаматызацыю складаных працоўных працэсаў без страты аўдытарскіх слядоў.
Ідэя такая: рабіце класную аўтаматызацыю, але захоўвайце чэкі. У рэгуляваных галінах гэта адзіны спосаб маштабавацца, не ператвараючыся ў піньяту пра адказнасць.
🕵️♂️ Заява ў адказ на паведамленне Grok AI на X ↗
Рэгулятар абароны дадзеных Вялікабрытаніі заявіў, што звязаўся з X і xAI, каб атрымаць яснасць адносна таго, як яны апрацоўваюць персанальныя дадзеныя і абараняюць правы людзей, улічваючы заклапочанасць з нагоды кантэнту, створанага Grok. Гаворка ідзе не толькі пра «мадэрацыю кантэнту», але і пра тое, ці законна апрацоўваюцца дадзеныя людзей і ці абараняюцца правы.
Гэта той тып рэгулятарнага кроку, які гучыць ветліва, а потым ціха становіцца надзвычай сур'ёзным, калі адказы аказваюцца невыразнымі... або ўхіляльнымі, або і тым, і другім.
Часта задаваныя пытанні
Чаму Інданезія заблакавала доступ да Grok AI?
Інданезія часова заблакавала Grok пасля таго, як паведамлялася, што ён выкарыстоўваўся для стварэння несанкцыянаваных сэксуальных дыпфэйкаў, у тым ліку выяваў, накіраваных на жанчын і дзяцей. Чыноўнікі кваліфікавалі гэты крок як праблему правоў чалавека і грамадскай бяспекі, а не як нязначную тэхналагічную спрэчку. Асноўны пасыл заключаецца ў тым, што «мы выправім гэта пазней» не спрацоўвае, калі інструменты могуць прычыніць неадкладную і незваротную шкоду.
Што разглядае Вялікабрытанія пасля таго, як на X з'явіліся дыпфэйкі, згенераваныя Grok?
Міністры Вялікабрытаніі публічна абмеркавалі штрафы і нават магчымасць блакавання X пасля таго, як Grok быў выкарыстаны для стварэння сексуальна адкрытых выяваў без згоды. Палітычны і рэгулятарны тон змяняецца ў бок прымусовага выканання, а не адкрытых дыскусій. Заканадаўцы пастаянна вяртаюцца да пытання часу: як толькі выявы распаўсюджваюцца, ахвяры сутыкаюцца з шкодай задоўга да таго, як платформы апублікуюць абноўленую палітыку.
Што азначае, калі рэгулятары «перакладаюць цяжар доказу» на інструменты апрацоўкі выяваў штучным інтэлектам?
Ідэя «перавароту цяжару доказу» заключаецца ў тым, што платформам, магчыма, прыйдзецца паказаць, што яны могуць прадухіліць канкрэтную шкоду — напрыклад, стварэнне несанкцыянаваных «распранальных» здымкаў — замест таго, каб проста абяцаць меры бяспекі. На практыцы гэта падштурхоўвае кампаніі да дэманстратыўных сродкаў кантролю, вымернага забеспячэння выканання і выразнага вырашэння праблем. Гэта таксама сігналізуе аб тым, што «намер» мае меншае значэнне, чым адчувальныя вынікі і паўтаральная прафілактыка.
Як платформы могуць знізіць рызыку неўзгодненых дыпфэйкаў, згенераваных штучным інтэлектам?
Распаўсюджаны падыход — гэта шматслаёвая прафілактыка: абмяжоўваць запыты і вынікі, звязаныя з рэальнымі людзьмі, блакіраваць запыты на стыль «распранання», а таксама выяўляць і спыняць спробы стварэння сэксуалізаваных малюнкаў без згоды. Многія канвееры дадаюць абмежаванні на хуткасць, больш жорсткі маніторынг асобы і злоўжыванняў, а таксама хуткія працоўныя працэсы выдалення кантэнту пасля распаўсюджвання. Мэта — не толькі фармулёўка палітыкі, але і інструменты, якія вытрымліваюць выкарыстанне з боку праціўніка.
Чаму загружаныя OpenAI рэальныя працоўныя дакументы падрадчыкамі выклікаюць трывогу?
Паводле паведамленняў, OpenAI (сумесна з партнёрам па навучальных даных) просіць падрадчыкаў загружаць рэальныя працоўныя артэфакты — дакументы, электронныя табліцы, калодкі і рэпазіторыі — для ацэнкі і паляпшэння агентаў штучнага інтэлекту для офісных задач. Занепакоенасць выклікае тое, што падрадчыкам загадваюць самастойна выдаляць канфідэнцыйныя дадзеныя, што можа прывесці да памылак. Юрысты па пытаннях прыватнасці і інтэлектуальнай уласнасці занепакоеныя тым, што інструкцыя па «выдаленні канфідэнцыйных дадзеных» занадта неадназначная для рэальных карпаратыўных матэрыялаў.
Якое значэнне мае партнёрства Allianz з Anthropic у галіне «агентнага штучнага інтэлекту» ў страхаванні?
Allianz і Anthropic апісалі глабальнае партнёрства, арыентаванае на прадукцыйнасць супрацоўнікаў, аперацыйную аўтаматызацыю з выкарыстаннем агентнага штучнага інтэлекту і адпаведнасць патрабаванням на этапе распрацоўкі. Страхавыя працоўныя працэсы складаныя і моцна рэгулююцца, таму «агентскі» часта азначае аўтаматызацыю шматэтапных працэсаў без страты падсправаздачнасці. Акцэнт на аўдытарскіх журналах і «захоўванні чэкаў» адлюстроўвае практычную рэальнасць: аўтаматызацыя маштабуецца ў рэгуляваных галінах толькі тады, калі яна застаецца кантраляванай і абараннай.