🏫 У некаторых школах чат-боты апытваюць вучняў пра іх працу. Але рэвалюцыя штучнага інтэлекту занепакоіла настаўнікаў ↗
Некаторыя аўстралійскія школы апрабоўваюць больш рэзкі падыход да «пакажы сваю працу»: вучні выконваюць заданне, а потым чат-бот са штучным інтэлектам апытвае іх у рэжыме рэальнага часу, каб праверыць, ці разумеюць яны тое, што яны здалі. Па сутнасці, гэта вусная сустрэча, але машына пытаецца: «Што вы маеце на ўвазе?», пакуль вы не пачынаеце корчыцца.
Большую заклапочанасць выклікае нераўнамернае ўкараненне: у галіновым даследанні папярэджваецца, што хуткае ўкараненне можа прывесці да таго, што іншыя хутка выйдуць наперад, а іншыя адстануць, што прывядзе да стварэння двуххуткаснай сістэмы адукацыі. Настаўнікі таксама пастаянна звяртаюць увагу на знаёмыя — і ўсё яшчэ сур'ёзныя — праблемы: прыватнасць, дабрабыт і тое, як не дапусціць, каб «дапамога штучнага інтэлекту» ператварылася ў «штучны інтэлект зрабіў гэта».
👮 Паліцыя сталіцы выкарыстоўвае інструменты штучнага інтэлекту, прадастаўленыя Palantir, для выяўлення неналежных паводзін супрацоўнікаў міліцыі ↗
Лонданская сталічная паліцыя выкарыстоўвае штучны інтэлект, пастаўлены Palantir, для аналізу ўнутраных заканамернасцей працы персаналу — хвароб, адсутнасці на працы, звышурочных гадзін — у пошуках сігналаў, якія могуць карэляваць з праблемамі прафесійных стандартаў. Праект прэзентуецца як абмежаваны па часе пілотны праект, і, што вельмі важна, у сталічнай паліцыі сцвярджаюць, што людзі ўсё яшчэ прымаюць рашэнні... але гэта «ўсё яшчэ» выконвае вялікую працу.
Паліцэйская федэрацыя не ў захапленні, называючы гэта «аўтаматызаваным падазрэннем» і папярэджваючы аб непразрыстых інструментах, якія няправільна інтэрпрэтуюць стрэс і нагрузку як парушэнне. Гэта адзін з тых момантаў, калі тэхніка гучыць акуратна на слайдзе, потым ты ўяўляеш, як яна адчуваецца на зямлі, і яна рэзка кале.
🛡️ Брытанскі орган па кантролі за прыватнасцю папярэджвае аб выявах, створаных штучным інтэлектам, у сумеснай заяве ↗
Брытанскае ICO далучылася да іншых рэгулятараў у сумесным папярэджанні аб выявах, створаных штучным інтэлектам, якія адлюстроўваюць ідэнтыфікаваных людзей без іх згоды — у асноўным: не ўспрымайце «гэта сінтэтычна» як чароўную адгаворку. Пасыл заключаецца ў тым, каб стварыць меры бяспекі на ранняй стадыі і ўзаемадзейнічаць з рэгулятарамі, замест таго, каб рабіць класічны тэхналагічны крок — спачатку адправіць дакумент, а потым прасіць прабачэння.
Яны таксама падкрэсліваюць падвышаную рызыку для дзяцей, што лагічна, бо калі гэтая штука распаўсюджваецца, гэта як спрабаваць сабраць бліскаўкі назад у слоік. Ідэя заключаецца ў тым, што прыватнасць і годнасць павінны перажыць цыкл моды, ці, прынамсі, так здаецца.
🪖 Міністр абароны ЗША Хегсет выклікаў генеральнага дырэктара Anthropic для жорсткіх перамоваў аб ваенным выкарыстанні Claude, паведамляе Axios ↗
Агенцтва Reuters паведамляе, што міністр абароны ЗША мае намер сустрэцца з генеральным дырэктарам Anthropic для, як кажуць, больш канфрантацыйнай размовы аб ваенным выкарыстанні Claude. Паведамляецца, што Пентагон хоча, каб буйныя пастаўшчыкі штучнага інтэлекту размяшчалі мадэлі ў класіфікаваных сетках з меншай колькасцю абмежаванняў, і Anthropic супраціўляецца любому паслабленню мер бяспекі.
Падтэкст гучыць як класічная дылема «дзейнічаць хутка, але… з ракетамі». Калі бакі не змогуць дамовіцца аб бар'ерах, адносіны могуць абвастрыцца ці нават разарвацца — аднак Anthropic таксама сігналізуе, што перамовы з урадам застаюцца канструктыўнымі, таму гэта напружаныя, але пакуль не тэксты аб поўным разрыве.
🧠 ChatGPT - Заўвагі да выпуску ↗
У нататках да выпуску OpenAI згадваецца пашыранае кантэкстнае акно для рэжыму «Разважанні», гэта значыць, вы можаце перадаваць мадэлі больш тэксту і падтрымліваць больш доўгія ланцужкі паведамленняў, не губляючы пры гэтым ранейшых дэталяў. Калі вы калі-небудзь бачылі, як мадэль «забывае» тое, што вы толькі што сказалі (боль), то гэтая заўвага накіравана менавіта на гэта.
Гэта вельмі хітрае абнаўленне, якое непрыкметна змяняе практычнае: больш доўгія дакументы, больш заблытаныя праекты, больш працяглыя даследчыя сесіі. Не гламурна, але гэта той тып змены сантэхнікі, які раптам робіць увесь дом большым.
Часта задаваныя пытанні
Што азначае, калі школы выкарыстоўваюць чат-ботаў для «апытання» вучняў наконт заданняў?
У некаторых аўстралійскіх школах вучні выконваюць заданне, а затым абмяркоўваюць яго з чат-ботам на базе штучнага інтэлекту, які правярае іх логіку. Гэта працуе як вусны экзамен, прымушаючы вучняў растлумачыць, што яны напісалі і чаму. Мэта складаецца ў тым, каб праверыць разуменне, а не толькі вынік. Гэта таксама можа выявіць прабелы, калі вучань не можа абараніць ключавыя сцвярджэнні.
Як чат-боты са штучным інтэлектам у школах могуць стварыць «двуххуткасную» сістэму адукацыі?
У галіновым даследанні папярэджваецца, што школы, якія хутка ўкараняюць тэхналогіі, могуць вырвацца наперад, у той час як школы, якія развіваюцца павольней, яшчэ больш адстаюць. Калі некаторыя школы ўкараняюць інструменты штучнага інтэлекту для ацэнкі разумення, падтрымкі навучання або прадухілення злоўжыванняў, яны могуць хутчэй палепшыць вынікі. Іншыя могуць не мець бюджэту, персаналу або яснай палітыкі для ўкаранення параўнальных сістэм. Такое нераўнамернае ўкараненне можа пашырыць існуючыя разрывы ў рэсурсах і дасягненнях.
Як настаўнікі спрабуюць перашкодзіць ператварэнню «дапамогі штучнага інтэлекту» ў «штучны інтэлект зрабіў гэта»?
Распаўсюджаны падыход заключаецца ў тым, каб перанесці ацэнку ў бок працэсу і тлумачэння, а не толькі гатовага прадукту. Пытанні ў стылі чат-бота, чарнавікі, разважанні або вусныя праверкі могуць абцяжарыць здачу працы, якую вы не разумееце. Настаўнікі таксама могуць усталяваць больш жорсткія абмежаванні на прымальную дапамогу, напрыклад, мазгавы штурм у параўнанні з поўным перапісваннем. Акцэнт застаецца на дэманстрацыі разумення, а не на кантролі за кожным інструментам.
Якія праблемы прыватнасці і дабрабыту ўзнікаюць пры выкарыстанні штучнага інтэлекту ў класах?
Настаўнікі пастаянна выказваюць заклапочанасць з нагоды таго, якія дадзеныя вучняў збіраюцца, дзе яны захоўваюцца і хто мае да іх доступ. Існуюць таксама асцярогі за дабрабыт, калі вучні адчуваюць пастаянны кантроль або ціск з боку машынных пытанняў. Дзеці з'яўляюцца асаблівай групай рызыкі, таму што канфідэнцыйная інфармацыя можа распаўсюджвацца або захоўвацца ў сістэмах нечаканымі спосабамі. Многія школы імкнуцца ўкараніць меры бяспекі загадзя, а не спрабаваць дапрацаваць іх пазней.
Як сталічная паліцыя выкарыстоўвае штучны інтэлект, прадастаўлены Palantir, для выяўлення патэнцыйных парушэнняў службовых абавязкаў супрацоўнікаў?
Лонданская сталічная паліцыя выкарыстоўвае штучны інтэлект, пастаўлены Palantir, для аналізу такіх заканамернасцей працы, як хваробы, прагулы і звышурочная праца. Мэта складаецца ў тым, каб выявіць сігналы, якія могуць карэляваць з праблемамі прафесійных стандартаў. Праект апісваецца як абмежаваны па часе пілотны праект, і сталічная паліцыя сцвярджае, што людзі ўсё яшчэ прымаюць рашэнні. Крытыкі сцвярджаюць, што інструмент можа ўспрымацца як «аўтаматызаванае падазрэнне», калі ён успрымае стрэс як парушэнне.
Чаму паліцэйскія прафсаюзы турбуюцца з-за «аўтаматызаваных падазроных» інструментаў кантролю з выкарыстаннем штучнага інтэлекту?
Федэрацыя паліцыі занепакоеная тым, што непразрыстыя мадэлі могуць рабіць высновы аб парушэннях на падставе заканамернасцей, якія маюць бяскрыўдныя тлумачэнні. Пікі працоўнай нагрузкі, праблемы са здароўем і стрэс могуць паўплываць на наведвальнасць або звышурочную працу, не маючы на ўвазе парушэнняў. Калі логіка інструмента непразрыстая, супрацоўнікам становіцца цяжэй аспрэчваць сцяжкі або кіраўнікам калібраваць справядлівыя парогі. Нават пры прыняцці рашэнняў чалавекам аўтаматызаваныя сігналы ўсё роўна могуць уплываць на вынікі.
Што папярэджвае брытанскае ICO адносна выяў, створаных штучным інтэлектам, якіх можна ідэнтыфікаваць?
Брытанскі орган па абароне прыватнасці далучыўся да іншых рэгулятараў, папярэдзіўшы, што «сінтэтычны» не азначае безнадзейны. Калі выява, створаная штучным інтэлектам, адлюстроўвае ідэнтыфікаваную асобу без яе згоды, рызыкі для прыватнасці і годнасці ўсё яшчэ існуюць. Рэгулятары падкрэсліваюць важнасць ранняга стварэння гарантый і ўзаемадзеяння з наглядам, а не першапачатковага ўкаранення. Яны таксама паведамляюць пра падвышаныя рызыкі для дзяцей, калі шкода можа хутка павялічыцца пасля распаўсюджвання кантэнту.
Што стаіць за паведамленнямі пра ціск Пентагона на Anthropic з нагоды ваеннага выкарыстання Клода?
Агенцтва Reuters паведамляе, што міністр абароны ЗША мае намер сустрэцца з генеральным дырэктарам Anthropic для больш жорсткіх перамоваў аб ваенным выкарыстанні Claude. Паведамляецца, што Пентагон хоча, каб буйныя пастаўшчыкі штучнага інтэлекту зрабілі мадэлі даступнымі ў класіфікаваных сетках з меншай колькасцю абмежаванняў. Anthropic супраціўляецца больш аслабленню гарантый, паказваючы на канфлікт з-за агароджаў. Адносіны выглядаюць напружанымі, хоць абодва бакі сігналізуюць, што перамовы застаюцца канструктыўнымі.
Што змянілася ў заўвагах да выпуску ChatGPT адносна даўжыні кантэксту рэжыму «Мысленне»?
У заўвагах да выпуску OpenAI згадваецца пашыранае кантэкстнае акно для рэжыму «Мысленне», што дазваляе змясціць больш тэксту ў адным патоку. На практыцы гэта можа дапамагчы з доўгімі дакументамі, складанымі праектамі і шматэтапнымі даследаваннямі, дзе важныя ранейшыя дэталі. Гэта хутчэй абнаўленне ў стылі сантэхнікі, чым яркая функцыя. Галоўная перавага — менш страчаных дэталяў падчас больш працяглых сесій.