Кароткі змест
Генератыўны штучны інтэлект (ШІ) — тэхналогія, якая дазваляе машынам ствараць тэкст, выявы, код і многае іншае, — у апошнія гады перажывае імклівы рост. Гэты дакумент дае даступны агляд таго, што генератыўны ШІ можа надзейна рабіць сёння без умяшання чалавека, і што чакаецца ад яго ў наступным дзесяцігоддзі. Мы разглядаем яго выкарыстанне ў пісьменстве, мастацтве, кадаванні, абслугоўванні кліентаў, ахове здароўя, адукацыі, лагістыцы і фінансах, падкрэсліваючы, дзе ШІ працуе аўтаномна, а дзе кантроль чалавека застаецца вырашальным. Прыклады з рэальнага свету прыведзены для ілюстрацыі як поспехаў, так і абмежаванняў. Асноўныя высновы ўключаюць:
-
Шырокае ўкараненне: у 2024 годзе 65% апытаных кампаній паведамлялі пра рэгулярнае выкарыстанне генератыўнага штучнага інтэлекту — амаль удвая больш, чым у папярэднім годзе ( Стан штучнага інтэлекту ў пачатку 2024 года | McKinsey ). Прымяненне ахоплівае стварэнне маркетынгавага кантэнту, чат-ботаў падтрымкі кліентаў, генерацыю кода і многае іншае.
-
Сучасныя аўтаномныя магчымасці: Сучасны генератыўны штучны інтэлект надзейна спраўляецца са структураванымі, паўтаральнымі задачамі з мінімальным кантролем. Прыкладамі з'яўляюцца аўтаматычная генерацыя фармульных навінавых справаздач (напрыклад, зводкі аб прыбытках карпарацый) ( Філана Патэрсан - профіль супольнасці ONA ), стварэнне апісанняў прадуктаў і асноўных аглядаў на сайтах электроннай камерцыі, а таксама аўтаматычнае запаўненне кода. У гэтых галінах штучны інтэлект часта дапаўняе працу людзей, бяручы на сябе руцінную генерацыю кантэнту.
-
Чалавек у цыкле для складаных задач: Для больш складаных або адкрытых задач, такіх як творчае пісьмо, падрабязны аналіз або медыцынскія кансультацыі, звычайна патрабуецца кантроль чалавека для забеспячэння факталагічнай дакладнасці, этычнага меркавання і якасці. Сёння ў многіх выпадках разгортвання штучнага інтэлекту выкарыстоўваецца мадэль «чалавек у цыкле», дзе штучны інтэлект складае чарнавік кантэнту, а людзі яго правяраюць.
-
Паляпшэнні ў бліжэйшай перспектыве: прагназуецца, што на працягу наступных 5–10 гадоў генератыўны штучны інтэлект стане значна больш надзейным і аўтаномным . Паляпшэнне дакладнасці мадэлявання і механізмаў ахоўных мер можа дазволіць штучнаму інтэлекту выконваць большую долю творчых задач і задач па прыняцці рашэнняў з мінімальным удзелам чалавека. Напрыклад, эксперты прагназуюць, што да 2030 года штучны інтэлект будзе апрацоўваць большасць узаемадзеянняў і рашэнняў з кліентамі ў рэжыме рэальнага часу (« Каб пераасэнсаваць пераход да кліентавага досведу, маркетолагі павінны зрабіць гэтыя 2 рэчы »), і можна будзе зняць буйны фільм з кантэнтам, які на 90% будзе створаны штучным інтэлектам (« Выпадкі выкарыстання генератыўнага штучнага інтэлекту для галін прамысловасці і прадпрыемстваў »).
-
Да 2035 года: праз дзесяцігоддзе мы чакаем, што аўтаномныя агенты са штучным інтэлектам стануць звычайнай з'явай у многіх галінах. Выкладчыкі са штучным інтэлектам змогуць прадастаўляць персаналізаваную адукацыю ў вялікіх маштабах, памочнікі са штучным інтэлектам змогуць надзейна складаць юрыдычныя кантракты або медыцынскія справаздачы для зацвярджэння экспертамі, а сістэмы самакіравання (з дапамогай генератыўнага мадэлявання) змогуць выконваць лагістычныя аперацыі ад пачатку да канца. Аднак некаторыя адчувальныя вобласці (напрыклад, важныя медыцынскія дыягназы, канчатковыя юрыдычныя рашэнні), верагодна, усё яшчэ будуць патрабаваць чалавечага меркавання для бяспекі і падсправаздачнасці.
-
Праблемы этыкі і надзейнасці: па меры росту аўтаноміі штучнага інтэлекту растуць і праблемы. Сярод праблем сёння — галюцынацыі (падман фактаў штучным інтэлектам), прадузятасць у створаным кантэнце, адсутнасць празрыстасці і патэнцыйнае злоўжыванне для дэзінфармацыі. Забеспячэнне даверу да штучнага інтэлекту значэнне . Дасягаецца прагрэс — напрыклад, арганізацыі ўкладваюць больш сродкаў у зніжэнне рызык (вырашэнне пытанняў дакладнасці, кібербяспекі, інтэлектуальнай уласнасці) ( Стан штучнага інтэлекту: глабальнае апытанне | McKinsey ), — але неабходныя надзейныя сістэмы кіравання і этыкі.
-
Структура гэтай працы: Мы пачынаем з уводзін у генератыўны штучны інтэлект і канцэпцыі аўтаномнага і кантраляванага выкарыстання. Затым для кожнай асноўнай вобласці (пісьмо, мастацтва, кадаванне і г.д.) мы абмяркоўваем, што штучны інтэлект можа рабіць надзейна сёння ў параўнанні з тым, што чакае нас у будучыні. У завяршэнні мы разгледзім міжсектаральныя праблемы, прагнозы на будучыню і рэкамендацыі па адказным выкарыстанні генератыўнага штучнага інтэлекту.
У цэлым, генератыўны штучны інтэлект ужо даказаў сваю здольнасць выконваць дзіўны спектр задач без пастаяннага кіраўніцтва чалавека. Разумеючы яго цяперашнія абмежаванні і будучы патэнцыял, арганізацыі і грамадскасць могуць лепш падрыхтавацца да эпохі, у якой штучны інтэлект будзе не проста інструментам, а аўтаномным партнёрам у працы і творчасці.
Уводзіны
Штучны інтэлект даўно здольны аналізаваць дадзеныя, але толькі нядаўна сістэмы штучнага інтэлекту навучыліся ствараць — пісаць прозу, складаць выявы, праграмаваць праграмнае забеспячэнне і многае іншае. Гэтыя генератыўныя мадэлі штучнага інтэлекту (напрыклад, GPT-4 для тэксту або DALL·E для малюнкаў) навучаюцца на велізарных наборах дадзеных для стварэння новага кантэнту ў адказ на падказкі. Гэты прарыў выклікаў хвалю інавацый у розных галінах. Аднак узнікае крытычнае пытанне: што мы насамрэч можам даверыць штучнаму інтэлекту самастойна, без падвойнай праверкі чалавека яго вываду?
Каб адказаць на гэтае пытанне, важна адрозніваць кантраляванае і аўтаномнае выкарыстанне штучнага інтэлекту:
-
Штучны інтэлект пад наглядам чалавека адносіцца да сцэнарыяў, калі вынікі штучнага інтэлекту правяраюцца або курыруюцца людзьмі перад тым, як быць завершанымі. Напрыклад, журналіст можа выкарыстоўваць памочніка па напісанні артыкула з дапамогай штучнага інтэлекту, каб напісаць чарнавік, але рэдактар рэдагуе і зацвярджае яго.
-
Аўтаномны штучны інтэлект (ШІ без умяшання чалавека) адносіцца да сістэм ШІ, якія выконваюць задачы або ствараюць кантэнт, які выкарыстоўваецца непасрэдна з мінімальным умяшаннем чалавека або без яго. Прыкладам можа служыць аўтаматызаваны чат-бот, які вырашае запыт кліента без удзелу чалавека, або навінавае агенцтва, якое аўтаматычна публікуе агляд спартыўных вынікаў, згенераваны ШІ.
Генератыўны штучны інтэлект ужо ўкараняецца ў абодвух рэжымах. У 2023-2025 гадах яго ўкараненне рэзка ўзрасло , і арганізацыі з ахвотай эксперыментуюць. Адно глабальнае апытанне, праведзенае ў 2024 годзе, паказала, што 65% кампаній рэгулярна выкарыстоўваюць генератыўны штучны інтэлект, у параўнанні з прыкладна адной трацінай усяго годам раней ( Стан штучнага інтэлекту ў пачатку 2024 года | McKinsey ). Асобныя людзі таксама ўкаранілі такія інструменты, як ChatGPT — паводле ацэнак, да сярэдзіны 2023 года 79% спецыялістаў мелі хаця б нейкі досвед працы з генератыўным штучным інтэлектам ( Стан штучнага інтэлекту ў 2023 годзе: год прарыву генератыўнага штучнага інтэлекту | McKinsey ). Гэта хуткае ўкараненне абумоўлена абяцаннем павышэння эфектыўнасці і крэатыўнасці. Тым не менш, гэта ўсё яшчэ «пачатковая стадыя», і многія кампаніі ўсё яшчэ распрацоўваюць палітыку адказнага выкарыстання штучнага інтэлекту ( Стан штучнага інтэлекту ў 2023 годзе: год прарыву генератыўнага штучнага інтэлекту | McKinsey ).
Чаму аўтаномія важная: дазвол штучнаму інтэлекту працаваць без кантролю чалавека можа адкрыць велізарныя перавагі ў эфектыўнасці — цалкам аўтаматызуючы стомныя задачы, — але гэта таксама павышае стаўкі надзейнасці. Аўтаномны агент штучнага інтэлекту павінен рабіць усё правільна (ці ведаць свае межы), таму што ў рэжыме рэальнага часу можа не быць чалавека, які б выяўляў памылкі. Некаторыя задачы больш падыходзяць для гэтага, чым іншыя. Як правіла, штучны інтэлект найлепш працуе аўтаномна, калі:
-
Задача мае выразную структуру або шаблон (напрыклад, стварэнне руцінных справаздач з дадзеных).
-
Памылкі маюць нізкі рызыка або лёгка пераносяцца (напрыклад, стварэнне выявы, якую можна адкінуць, калі яна нездавальняючая, у параўнанні з медыцынскім дыягназам).
-
Існуе дастаткова навучальных дадзеных, якія ахопліваюць сцэнарыі, таму вынік штучнага інтэлекту заснаваны на рэальных прыкладах (што зніжае здагадкі).
У адрозненне ад гэтага, задачы з адкрытым канцом , высокімі стаўкамі або якія патрабуюць тонкага меркавання, сёння менш падыходзяць для нулявога кантролю.
У наступных раздзелах мы разгледзім шэраг абласцей, каб убачыць, што робіць генератыўны штучны інтэлект зараз і што будзе далей. Мы разгледзім канкрэтныя прыклады — ад навінавых артыкулаў і твораў мастацтва, створаных штучным інтэлектам, да памочнікаў па напісанні кода і віртуальных агентаў па абслугоўванні кліентаў — падкрэсліваючы, якія задачы можа выконваць штучны інтэлект у поўным аб'ёме, а якія ўсё яшчэ патрабуюць удзелу чалавека. Для кожнай вобласці мы выразна аддзяляем бягучыя магчымасці (прыкладна 2025 год) ад рэалістычных прагнозаў таго, што можа быць надзейным да 2035 года.
Адлюстроўваючы сучаснасць і будучыню аўтаномнага штучнага інтэлекту ў розных галінах, мы імкнемся даць чытачам збалансаванае разуменне: не перабольшваючы здольнасць штучнага інтэлекту як чароўнай бездакорнасці і не недаацэньваючы яго рэальныя і расце магчымасці. Зыходзячы з гэтага, мы абмяркоўваем агульныя праблемы, звязаныя з даверам да штучнага інтэлекту без нагляду, у тым ліку этычныя меркаванні і кіраванне рызыкамі, а затым робім заключэнне з ключавымі высновамі.
Генератыўны штучны інтэлект у пісьме і стварэнні кантэнту
Адной з першых абласцей, дзе генератыўны штучны інтэлект зрабіў фурор, была генерацыя тэкстаў. Вялікія моўныя мадэлі могуць ствараць усё: ад навінавых артыкулаў і маркетынгавых тэкстаў да паведамленняў у сацыяльных сетках і рэзюмэ дакументаў. Але колькі ўсяго можна напісаць без рэдактара?
Бягучыя магчымасці (2025): Штучны інтэлект як аўтаматычны аўтар руціннага кантэнту
Сёння генератыўны штучны інтэлект надзейна спраўляецца з рознымі руціннымі пісьмовымі задачамі з мінімальным умяшаннем чалавека або без яго. Яскравым прыкладам з'яўляецца журналістыка: Associated Press гадамі выкарыстоўвала аўтаматызацыю для стварэння тысяч справаздач аб прыбытках кампаній кожны квартал непасрэдна з фінансавых даных ( Філана Патэрсан - профіль супольнасці ONA ). Гэтыя кароткія навіны адпавядаюць шаблону (напрыклад, «Кампанія X паведаміла аб прыбытках Y, якія выраслі на Z%...»), і штучны інтэлект (выкарыстоўваючы праграмнае забеспячэнне для генерацыі натуральнай мовы) можа запаўняць лічбы і тэрміны хутчэй, чым любы чалавек. Сістэма AP публікуе гэтыя справаздачы аўтаматычна, значна пашыраючы іх ахоп (больш за 3000 гісторый за квартал) без неабходнасці ўзаемадзеяння з людзьмі ( Аўтаматызаваныя гісторыі аб прыбытках множацца | The Associated Press ).
Спартыўная журналістыка таксама атрымала ўдасканаленне: сістэмы штучнага інтэлекту могуць браць статыстыку спартыўных гульняў і ствараць кароткія гісторыі. Паколькі гэтыя сферы заснаваныя на дадзеных і фармулююцца, памылкі рэдкія, пакуль дадзеныя правільныя. У такіх выпадках мы бачым сапраўдную аўтаномію — штучны інтэлект піша, а кантэнт публікуецца адразу.
Прадпрыемствы таксама выкарыстоўваюць генератыўны штучны інтэлект для стварэння апісанняў прадуктаў, электронных рассылак і іншага маркетынгавага кантэнту. Напрыклад, гігант электроннай камерцыі Amazon цяпер выкарыстоўвае штучны інтэлект для абагульнення водгукаў кліентаў аб прадуктах. Штучны інтэлект скануе тэкст многіх асобных водгукаў і стварае кароткі абзац з тым, што людзям падабаецца ці не падабаецца ў тавары, які затым адлюстроўваецца на старонцы прадукту без ручнога рэдагавання ( Amazon паляпшае вопыт водгукаў кліентаў з дапамогай штучнага інтэлекту ). Ніжэй прыведзена ілюстрацыя гэтай функцыі, разгорнутай у мабільным дадатку Amazon, дзе раздзел «Кліенты кажуць» цалкам генеруецца штучным інтэлектам з дадзеных водгукаў:
( Amazon паляпшае вопыт водгукаў кліентаў з дапамогай штучнага інтэлекту ) Кароткі змест водгуку, згенераваны штучным інтэлектам, на старонцы тавару электроннай камерцыі. Сістэма Amazon абагульняе агульныя моманты з водгукаў карыстальнікаў (напрыклад, прастату выкарыстання, прадукцыйнасць) у кароткі абзац, які паказваецца пакупнікам як «згенераваны штучным інтэлектам з тэксту водгукаў кліентаў».
Такія выпадкі выкарыстання паказваюць, што калі кантэнт адпавядае прадказальнай схеме або агрэгуецца з існуючых дадзеных, штучны інтэлект часта можа справіцца з ім самастойна . Іншыя актуальныя прыклады ўключаюць:
-
Абнаўленні надвор'я і дарожнага руху: СМІ выкарыстоўваюць штучны інтэлект для складання штодзённых прагнозаў надвор'я або бюлетэняў дарожнага руху на аснове дадзеных датчыкаў.
-
Фінансавыя справаздачы: фірмы аўтаматычна генеруюць простыя фінансавыя зводкі (квартальныя вынікі, агляды фондавага рынку). З 2014 года Bloomberg і іншыя навінавыя агенцтвы выкарыстоўваюць штучны інтэлект для напісання навінавых анатацый аб прыбытках кампаній — працэс, які ў значнай ступені працуе аўтаматычна пасля падачы дадзеных ( «робаты-журналісты» AP цяпер пішуць свае ўласныя гісторыі | The Verge ) ( рэпарцёра з Ваёмінга злавілі на выкарыстанні штучнага інтэлекту для стварэння фальшывых цытат і гісторый ).
-
Пераклад і транскрыпцыя: Сэрвісы транскрыпцыі цяпер выкарыстоўваюць штучны інтэлект для стварэння стэнаграм або субтытраў сустрэч без удзелу людзей-друкароў. Хоць гэтыя моўныя задачы не з'яўляюцца генератыўнымі ў творчым сэнсе, яны выконваюцца аўтаномна з высокай дакладнасцю для атрымання выразнага гуку.
-
Стварэнне чарнавікоў: Многія спецыялісты выкарыстоўваюць такія інструменты, як ChatGPT, для стварэння чарнавікоў электронных лістоў або першых версій дакументаў, часам адпраўляючы іх практычна без правак, калі змест нізкарызыкоўны.
Аднак, для больш складанай прозы чалавечы кантроль застаецца нормай у 2025 годзе . Навінавыя арганізацыі рэдка публікуюць расследаванні або аналітычныя артыкулы непасрэдна са штучнага інтэлекту — рэдактары правяраюць факты і ўдасканальваюць чарнавікі, напісаныя штучным інтэлектам. Штучны інтэлект можа імітаваць стыль і структуру , але можа ўносіць факталагічныя памылкі (часта іх называюць «галюцынацыямі») або нязграбныя фразы, якія чалавек павінен заўважыць. Напрыклад, нямецкая газета Express прадставіла «лічбавую калегу» са штучным інтэлектам па імені Клара, каб дапамагчы ў напісанні першых навін. Клара можа эфектыўна складаць спартыўныя рэпартажы і нават пісаць загалоўкі, якія прыцягваюць чытачоў, уносячы свой уклад у 11% артыкулаў Express, але рэдактары-людзі ўсё яшчэ правяраюць кожны матэрыял на дакладнасць і журналісцкую сумленнасць, асабліва ў складаных гісторыях ( 12 спосабаў выкарыстання інструментаў штучнага інтэлекту ў рэдакцыі — Twipe ). Гэта партнёрства чалавека і штучнага інтэлекту распаўсюджана сёння: штучны інтэлект выконвае цяжкую працу па стварэнні тэксту, а людзі курыруюць і выпраўляюць па меры неабходнасці.
Перспектывы на 2030-2035 гады: на шляху да даверанага аўтаномнага пісьма
На працягу наступнага дзесяцігоддзя мы чакаем, што генератыўны штучны інтэлект стане значна больш надзейным у стварэнні якаснага, факталагічна правільнага тэксту, што пашырыць спектр пісьмовых задач, якія ён можа выконваць аўтаномна. Гэта пацвярджаюць некалькі тэндэнцый:
-
Павышаная дакладнасць: Бягучыя даследаванні хутка зніжаюць схільнасць штучнага інтэлекту ствараць ілжывую або неістотную інфармацыю. Да 2030 года перадавыя моўныя мадэлі з лепшым навучаннем (у тым ліку метады праверкі фактаў у базах дадзеных у рэжыме рэальнага часу) змогуць дасягнуць унутранай праверкі фактаў, блізкай да чалавечага ўзроўню. Гэта азначае, што штучны інтэлект зможа аўтаматычна ствараць поўны навінавы артыкул з правільнымі цытатамі і статыстыкай, узятымі з зыходнага матэрыялу, што патрабуе мінімальнага рэдагавання.
-
Штучны інтэлект, арыентаваны на пэўныя прадметы: мы ўбачым больш спецыялізаваныя генератыўныя мадэлі, дапрацаваныя для пэўных абласцей (юрыдычная, медыцынская, тэхнічная пісьмовая праца). Мадэль юрыдычнага штучнага інтэлекту 2030 года зможа надзейна складаць стандартныя кантракты або абагульняць судовую практыку — задачы, якія маюць фармулёвую структуру, але ў цяперашні час патрабуюць часу ад юрыста. Калі штучны інтэлект будзе навучаны працы з праверанымі юрыдычнымі дакументамі, яго чарнавікі могуць быць настолькі надзейнымі, што юрыст толькі кіне на іх апошні хуткі позірк.
-
Натуральны стыль і лагічнасць: мадэлі ўсё лепш падтрымліваюць кантэкст у вялікіх дакументах, што прыводзіць да больш звязнага і лаканічнага кантэнту. Да 2035 года цалкам верагодна, што штучны інтэлект зможа самастойна напісаць прыстойны першы чарнавік навукова-папулярнай кнігі або тэхнічнага кіраўніцтва, а людзі будуць выконваць у асноўным кансультатыўную ролю (для пастаноўкі мэт або прадастаўлення спецыялізаваных ведаў).
Як гэта можа выглядаць на практыцы? Руцінная журналістыка можа стаць амаль цалкам аўтаматызаванай для пэўных тэм. Мы можам убачыць, як у 2030 годзе інфармацыйнае агенцтва мае сістэму штучнага інтэлекту, якая піша першую версію кожнага справаздачы аб прыбытках, спартыўнага матэрыялу або абнаўлення вынікаў выбараў, а рэдактар будзе выбіраць толькі некалькі варыянтаў для кантролю якасці. Сапраўды, эксперты прагназуюць, што пастаянна расце доля анлайн-кантэнту, які будзе генеравацца машынамі — адзін смелы прагноз галіновых аналітыкаў сведчыць аб тым, што да 2026 года да 90% анлайн-кантэнту можа быць згенеравана штучным інтэлектам ( Да 2026 года анлайн-кантэнт, згенераваны нелюдзьмі, будзе значна перавышаць кантэнт, згенераваны чалавекам — OODAloop ), хоць гэтая лічба абмяркоўваецца. Нават больш кансерватыўны вынік азначаў бы, што да сярэдзіны 2030-х гадоў большасць звычайных вэб-артыкулаў, тэкстаў прадуктаў і, магчыма, нават персаналізаваных стужак навін будуць створаны штучным інтэлектам.
У маркетынгу і карпаратыўных камунікацыях генератыўны штучны інтэлект, верагодна, будзе прызначаны для аўтаномнага кіравання цэлымі кампаніямі. Ён зможа генераваць і адпраўляць персаналізаваныя маркетынгавыя электронныя лісты, паведамленні ў сацыяльных сетках і варыянты рэкламных тэкстаў, пастаянна карэктуючы паведамленні ў залежнасці ад рэакцыі кліентаў — і ўсё гэта без удзелу чалавека-капірайтэра. Аналітыкі Gartner прагназуюць, што да 2025 года не менш за 30% выходных маркетынгавых паведамленняў буйных прадпрыемстваў будуць сінтэтычна генеравацца штучным інтэлектам ( выпадкі выкарыстання генератыўнага штучнага інтэлекту для галін прамысловасці і прадпрыемстваў ), і гэты працэнт будзе толькі расці да 2030 года.
Аднак важна адзначыць, што чалавечая творчасць і меркаванне будуць па-ранейшаму гуляць важную ролю, асабліва для кантэнту з высокімі стаўкамі . Да 2035 года штучны інтэлект зможа самастойна апрацоўваць прэс-рэлізы або паведамленні ў блогу, але ў расследаванні, якое прадугледжвае падсправаздачнасць або адчувальныя тэмы, СМІ могуць усё яшчэ настойваць на кантролі з боку чалавека. Будучыня, верагодна, прынясе шматступенчаты падыход: штучны інтэлект будзе аўтаномна ствараць большую частку штодзённага кантэнту, у той час як людзі будуць засяроджвацца на рэдагаванні і стварэнні стратэгічных або адчувальных матэрыялаў. Па сутнасці, мяжа таго, што лічыцца «руціннай», будзе пашырацца па меры росту майстэрства штучнага інтэлекту.
Акрамя таго, могуць з'явіцца новыя формы кантэнту, такія як інтэрактыўныя апавяданні, створаныя штучным інтэлектам, або персаналізаваныя справаздачы . Напрыклад, гадавая справаздача кампаніі можа быць згенеравана штучным інтэлектам у некалькіх стылях — кароткі змест для кіраўнікоў, апавядальная версія для супрацоўнікаў, версія з высокім утрыманнем дадзеных для аналітыкаў — кожны з якіх будзе створаны аўтаматычна з адных і тых жа базавых дадзеных. У адукацыі падручнікі могуць быць напісаны дынамічна штучным інтэлектам у адпаведнасці з рознымі ўзроўнямі чытання. Гэтыя праграмы могуць быць у значнай ступені аўтаномнымі, але падмацаванымі праверанай інфармацыяй.
Траекторыя развіцця пісьмовай дзейнасці сведчыць аб тым, што да сярэдзіны 2030-х гадоў штучны інтэлект стане плённым пісьменнікам . Ключом да сапраўды аўтаномнай працы будзе ўсталяванне даверу да яго вынікаў. Калі штучны інтэлект зможа паслядоўна дэманстраваць фактычную дакладнасць, стылістычную якасць і адпаведнасць этычным стандартам, неабходнасць у праверцы чалавекам радок за радком зменшыцца. Раздзелы гэтага белага дакумента да 2035 года цалкам могуць быць напісаны даследчыкам у галіне штучнага інтэлекту без неабходнасці рэдактара — перспектыва, да якой мы з асцярожным аптымізмам ставімся, пры ўмове належных мер бяспекі.
Генератыўны штучны інтэлект у выяўленчым мастацтве і дызайне
Здольнасць генератыўнага штучнага інтэлекту ствараць выявы і творы мастацтва захапіла ўяўленне грамадскасці, ад карцін, створаных штучным інтэлектам, якія перамагаюць у мастацкіх конкурсах, да глыбокіх фэйк-відэа, якія немагчыма адрозніць ад рэальных кадраў. У візуальных галінах мадэлі штучнага інтэлекту, такія як генератыўна-спаборніцкія сеткі (GAN) і мадэлі дыфузіі (напрыклад, Stable Diffusion, Midjourney), могуць ствараць арыгінальныя выявы на аснове тэкставых падказак. Такім чынам, ці можа штучны інтэлект цяпер функцыянаваць як аўтаномны мастак або дызайнер?
Бягучыя магчымасці (2025): Штучны інтэлект як творчы памочнік
Па стане на 2025 год генератыўныя мадэлі ўмела ствараюць выявы па запыце з уражлівай дакладнасцю. Карыстальнікі могуць папрасіць штучны інтэлект намаляваць «сярэднявечны горад на захадзе сонца ў стылі Ван Гога» і атрымаць пераканаўча мастацкае малюнак за лічаныя секунды. Гэта прывяло да шырокага выкарыстання штучнага інтэлекту ў графічным дызайне, маркетынгу і індустрыі забаў для канцэптуальнага мастацтва, прататыпаў і нават канчатковых візуальных эфектаў у некаторых выпадках. У прыватнасці:
-
Графічны дызайн і стоковыя выявы: кампаніі ствараюць графіку для вэб-сайтаў, ілюстрацыі або стоковыя фатаграфіі з дапамогай штучнага інтэлекту, што змяншае неабходнасць заказваць кожную працу ў мастака. Многія маркетынгавыя каманды выкарыстоўваюць інструменты штучнага інтэлекту для стварэння варыянтаў рэкламы або малюнкаў прадуктаў, каб праверыць, што прываблівае спажыўцоў.
-
Мастацтва і ілюстрацыя: Асобныя мастакі супрацоўнічаюць са штучным інтэлектам для абмеркавання ідэй або дапаўнення дэталяў. Напрыклад, ілюстратар можа выкарыстоўваць штучны інтэлект для стварэння фонавых пейзажаў, якія потым інтэгруецца са сваімі намаляванымі людзьмі персанажамі. Некаторыя стваральнікі коміксаў эксперыментавалі з панэлямі або размалёўкамі, створанымі штучным інтэлектам.
-
СМІ і забавы: Мастацтва, створанае штучным інтэлектам, з'яўлялася на вокладках часопісаў і кніг. Вядомым прыкладам стала часопіса Cosmopolitan з выявай касманаўта — нібыта гэта было першае выява вокладкі часопіса, створанае штучным інтэлектам (DALL·E ад OpenAI) па ўказанні арт-дырэктара. Хоць гэта і прадугледжвала падказкі і выбар чалавека, сам твор мастацтва быў візуалізаваны машынай.
Важна адзначыць, што большасць з гэтых сучасных ужыванняў усё яшчэ ўключаюць курыраванне і ітэрацыю чалавекам . Штучны інтэлект можа выдаць дзясяткі малюнкаў, а чалавек выбірае найлепшы і, магчыма, падкарэктуе яго. У гэтым сэнсе штучны інтэлект працуе аўтаномна, ствараючы варыянты, але людзі кіруюць творчым кірункам і робяць канчатковы выбар. Ён надзейны для хуткай генерацыі вялікай колькасці кантэнту, але не гарантуе задавальнення ўсіх патрабаванняў з першай спробы. Такія праблемы, як няправільныя дэталі (напрыклад, штучны інтэлект малюе рукі з няправільнай колькасцю пальцаў, вядомая асаблівасць) або непрадбачаныя вынікі, азначаюць, што арт-дырэктару звычайна трэба кантраляваць якасць вынікаў.
Аднак ёсць вобласці, дзе штучны інтэлект набліжаецца да поўнай аўтаноміі:
-
Генератыўны дызайн: У такіх галінах, як архітэктура і дызайн прадуктаў, інструменты штучнага інтэлекту могуць аўтаномна ствараць прататыпы дызайну, якія адпавядаюць зададзеным абмежаванням. Напрыклад, пры ўмове патрэбных памераў і функцый прадмета мэблі генератыўны алгарытм можа стварыць некалькі жыццяздольных дызайнаў (некаторыя з якіх даволі незвычайныя) без умяшання чалавека, якія выходзяць за рамкі пачатковых спецыфікацый. Затым гэтыя дызайны могуць быць непасрэдна выкарыстаны або ўдасканалены людзьмі. Падобным чынам, у інжынерыі генератыўны штучны інтэлект можа распрацоўваць дэталі (напрыклад, кампанент самалёта), аптымізаваныя па вазе і трываласці, ствараючы новыя формы, якія чалавек мог бы і не ўявіць.
-
Рэсурсы відэагульняў: Штучны інтэлект можа аўтаматычна ствараць тэкстуры, 3D-мадэлі ці нават цэлыя ўзроўні для відэагульняў. Распрацоўшчыкі выкарыстоўваюць гэта для паскарэння стварэння кантэнту. Некаторыя незалежныя гульні пачалі ўключаць працэдурна згенераваныя малюнкі і нават дыялогі (праз моўныя мадэлі), каб ствараць велізарныя, дынамічныя гульнявыя светы з мінімальнай колькасцю рэсурсаў, створаных чалавекам.
-
Анімацыя і відэа (новыя): Нягледзячы на меншую ступень развіцця ў параўнанні са статычнымі выявамі, генератыўны штучны інтэлект для відэа развіваецца. Штучны інтэлект ужо можа ствараць кароткія відэакліпы або анімацыю з падказак, хоць якасць нестабільная. Тэхналогія Deepfake, якая з'яўляецца генератыўнай, можа ствараць рэалістычныя замены твараў або клоны галасоў. У кантраляваных умовах студыя можа выкарыстоўваць штучны інтэлект для аўтаматычнай генерацыі фонавай сцэны або анімацыі натоўпу.
Варта адзначыць, што Gartner прагназуе, што да 2030 года мы ўбачым буйны блокбастар, 90% кантэнту якога (ад сцэнарыя да візуальных эфектаў) будзе створана штучным інтэлектам (гл. « Выпадкі выкарыстання генератыўнага штучнага інтэлекту для галін прамысловасці і прадпрыемстваў »). Па стане на 2025 год мы яшчэ не там — штучны інтэлект не можа самастойна зняць паўнаметражны фільм. Але часткі гэтай галаваломкі развіваюцца: генерацыя сцэнарыя (тэкставы штучны інтэлект), генерацыя персанажаў і сцэн (выявы/відэа з дапамогай штучнага інтэлекту), агучка (клоны голасу з дапамогай штучнага інтэлекту) і дапамога ў мантажы (штучны інтэлект ужо можа дапамагаць з мантажом і пераходамі).
Перспектывы на 2030-2035 гады: маштабныя медыя, створаныя штучным інтэлектам
Заглядаючы ў будучыню, можна меркаваць, што роля генератыўнага штучнага інтэлекту ў выяўленчым мастацтве і дызайне значна пашырыцца. Да 2035 года мы чакаем, што штучны інтэлект стане асноўным стваральнікам кантэнту ў многіх візуальных медыя, часта працуючы з мінімальным удзелам чалавека, акрамя першапачатковых указанняў. Некаторыя чаканні:
-
Фільмы і відэа, цалкам створаныя штучным інтэлектам: у бліжэйшыя дзесяць гадоў цалкам магчыма, што мы ўбачым першыя фільмы або серыялы, якія ў значнай ступені будуць створаны штучным інтэлектам. Людзі могуць забяспечыць рэжысуру на высокім узроўні (напрыклад, план сцэнарыя або патрэбны стыль), а штучны інтэлект будзе рэндэрыць сцэны, ствараць падабенства акцёраў і анімаваць усё. Раннія эксперыменты з кароткаметражнымі фільмамі, верагодна, адбудуцца праз некалькі гадоў, а спробы зняць паўнаметражныя фільмы — да 2030-х гадоў. Гэтыя фільмы са штучным інтэлектам могуць пачаць з нішы (эксперыментальная анімацыя і г.д.), але могуць стаць мэйнстрымам па меры паляпшэння якасці. Прагноз Gartner на 90% да 2030 года ( Выпадкі выкарыстання генератыўнага штучнага інтэлекту для галін і прадпрыемстваў ), хоць і амбіцыйны, падкрэслівае перакананне галіны ў тым, што стварэнне кантэнту з дапамогай штучнага інтэлекту будзе дастаткова складаным, каб узяць на сябе большую частку нагрузкі ў кінавытворчасці.
-
Аўтаматызацыя праектавання: У такіх галінах, як мода ці архітэктура, генератыўны штучны інтэлект, верагодна, будзе выкарыстоўвацца для аўтаномнай распрацоўкі сотняў дызайнерскіх канцэпцый на аснове такіх параметраў, як «кошт, матэрыялы, стыль X», пакідаючы людзям выбар канчатковага дызайну. Гэта змяняе цяперашнюю дынаміку: замест таго, каб дызайнеры стваралі з нуля і, магчыма, выкарыстоўвалі штучны інтэлект для натхнення, будучыя дызайнеры могуць выступаць у большай ступені ў ролі куратараў, выбіраючы найлепшы дызайн, згенераваны штучным інтэлектам, і, магчыма, карэктуючы яго. Да 2035 года архітэктар зможа ўводзіць патрабаванні да будынка і атрымліваць поўныя чарцяжы ў якасці прапаноў ад штучнага інтэлекту (усе структурна абгрунтаваныя, дзякуючы ўбудаваным інжынерным правілам).
-
Стварэнне персаналізаванага кантэнту: Мы можам убачыць, як штучны інтэлект стварае візуальныя элементы на хаду для асобных карыстальнікаў. Уявіце сабе відэагульню або віртуальную рэальнасць у 2035 годзе, дзе пейзажы і персанажы адаптуюцца да пераваг гульца, генеруючыся ў рэжыме рэальнага часу штучным інтэлектам. Або персаналізаваныя коміксы, створаныя на аснове дня карыстальніка — аўтаномны штучны інтэлект «штодзённага коміксу», які кожны вечар аўтаматычна ператварае ваш тэкставы дзённік у ілюстрацыі.
-
Мультымадальная творчасць: генератыўныя сістэмы штучнага інтэлекту становяцца ўсё больш мультымадальнымі, гэта значыць, яны могуць апрацоўваць тэкст, выявы, аўдыё і г.д. разам. Аб'ядноўваючы іх, штучны інтэлект можа ўзяць простую запыт, напрыклад, «Стварыце мне маркетынгавую кампанію для прадукту X», і стварыць не толькі пісьмовы тэкст, але і адпаведную графіку, магчыма, нават кароткія рэкламныя відэакліпы, усе ў адзіным стылі. Гэты тып набору кантэнту ў адзін клік, верагодна, стане паслугай да пачатку 2030-х гадоў.
Ці заменіць штучны інтэлект мастакоў-людзей ? Гэтае пытанне часта ўзнікае. Верагодна, што штучны інтэлект возьме на сябе значную частку вытворчай працы (асабліва паўтаральныя або хуткаабаротныя творы мастацтва, неабходныя для бізнесу), але чалавечае мастацтва захаваецца дзеля арыгінальнасці і інавацый. Да 2035 года аўтаномны штучны інтэлект зможа надзейна маляваць карціны ў стылі вядомага мастака, але стварэнне новага стылю або мастацтва з глыбокім культурным рэзанансам усё яшчэ можа быць моцным бокам чалавека (патэнцыйна, з дапамогай штучнага інтэлекту ў якасці суаўтара). Мы прадбачым будучыню, у якой мастакі-людзі будуць працаваць разам з аўтаномнымі «сумастакамі» са штучным інтэлектам. Напрыклад, можна было б замовіць асабісты штучны інтэлект для пастаяннага стварэння твораў мастацтва для лічбавай галерэі ў сябе дома, ствараючы пастаянна зменлівую творчую атмасферу.
З пункту гледжання надзейнасці, візуальны генератыўны штучны інтэлект мае ў некаторых адносінах прасцейшы шлях да аўтаноміі, чым тэкст: выява можа быць суб'ектыўна «дастаткова добрай», нават калі яна не ідэальная, тады як фактычная памылка ў тэксце больш праблематычная. Такім чынам, мы ўжо бачым адносна нізкарызыкоўнае ўкараненне — калі дызайн, створаны штучным інтэлектам, непрыгожы або няправільны, вы проста не выкарыстоўваеце яго, але сам па сабе ён не прычыняе шкоды. Гэта азначае, што да 2030-х гадоў кампаніі могуць спакойна дазволіць штучнаму інтэлекту ствараць дызайны без нагляду і прыцягнуць людзей толькі тады, калі патрэбна нешта сапраўды новае або рызыкоўнае.
Карацей кажучы, да 2035 года чакаецца, што генератыўны штучны інтэлект стане магутным стваральнікам кантэнту ў галіне візуальных элементаў, верагодна, адказным за значную частку малюнкаў і медыя вакол нас. Ён будзе надзейна ствараць кантэнт для забаў, дызайну і паўсядзённых камунікацый. Аўтаномны мастак ужо на гарызонце, хоць тое, ці варта лічыць штучны інтэлект крэатыўным ці проста вельмі разумным інструментам, — гэта дыскусія, якая будзе развівацца па меры таго, як яго вынікі стануць неадрознымі ад створаных чалавекам.
Генератыўны штучны інтэлект у распрацоўцы праграмнага забеспячэння (кадзіраванне)
Распрацоўка праграмнага забеспячэння можа здацца вельмі аналітычнай задачай, але ў ёй таксама ёсць творчы элемент — напісанне кода — гэта па сутнасці стварэнне тэксту на структураванай мове. Сучасны генератыўны штучны інтэлект, асабліва мадэлі вялікіх моў, даказаў сваю здольнасць кадаваць. Такія інструменты, як GitHub Copilot, Amazon CodeWhisperer і іншыя, выступаюць у якасці парных праграмістаў штучнага інтэлекту, прапаноўваючы фрагменты кода або нават цэлыя функцыі па меры ўводу распрацоўшчыкамі. Наколькі далёка гэта можа зайсці ў плане аўтаномнага праграмавання?
Бягучыя магчымасці (2025): Штучны інтэлект як памочнік па кадаванні
Да 2025 года генератары кода штучнага інтэлекту сталі распаўсюджанай з'явай у працоўных працэсах многіх распрацоўшчыкаў. Гэтыя інструменты могуць аўтаматычна запаўняць радкі кода, генераваць шаблоны (напрыклад, стандартныя функцыі або тэсты) і нават пісаць простыя праграмы з апісаннем на натуральнай мове. Аднак важна тое, што яны працуюць пад наглядам распрацоўшчыка — распрацоўшчык разглядае і інтэгруе прапановы штучнага інтэлекту.
Некаторыя актуальныя факты і лічбы:
-
Да канца 2023 года больш за палову прафесійных распрацоўшчыкаў ужылі памочнікаў па кадаванні на базе штучнага інтэлекту ( « Кадаванне на Copilot: дадзеныя за 2023 год сведчаць аб зніжэнні якасці кода (у тым ліку прагнозы на 2024 год)» — GitClear ), што сведчыць аб хуткім распаўсюджванні гэтай тэхналогіі. Паведамлялася, што GitHub Copilot, адзін з першых шырока даступных інструментаў, генераваў у сярэднім 30-40% кода ў праектах, дзе ён выкарыстоўваўся ( « Кадаванне больш не з'яўляецца абавязковым патрабаваннем. 46% кода на GitHub ужо... »). Гэта азначае, што штучны інтэлект ужо піша значныя часткі кода, хоць чалавек кіруе ім і правярае яго.
-
Гэтыя інструменты штучнага інтэлекту выдатна спраўляюцца з такімі задачамі, як напісанне паўтаральнага кода (напрыклад, класы мадэляў дадзеных, метады атрымання/ўсталёўкі), пераўтварэнне адной мовы праграмавання ў іншую або стварэнне простых алгарытмаў, якія нагадваюць навучальныя прыклады. Напрыклад, распрацоўшчык можа закаментаваць «// функцыя для сартавання спісу карыстальнікаў па імені», і штучны інтэлект амаль імгненна згенеруе адпаведную функцыю сартавання.
-
Яны таксама дапамагаюць у выпраўленні памылак і іх тлумачэнні : распрацоўшчыкі могуць уставіць паведамленне пра памылку, і штучны інтэлект можа прапанаваць выпраўленне, або спытаць: «Што робіць гэты код?» і атрымаць тлумачэнне на натуральнай мове. У пэўным сэнсе гэта аўтаномна (штучны інтэлект можа самастойна дыягнаставаць праблемы), але чалавек вырашае, ці ўжываць выпраўленне.
-
Важна адзначыць, што сучасныя памочнікі па кадаванні штучнага інтэлекту не бездакорныя. Яны могуць прапанаваць небяспечны код або код, які амаль вырашае праблему, але мае нязначныя памылкі. Такім чынам, лепшай практыкай сёння з'яўляецца пастаяннае ўзаемадзеянне з чалавекам — распрацоўшчык тэстуе і адладжвае код, напісаны штучным інтэлектам, гэтак жа, як і код, напісаны чалавекам. У рэгуляваных галінах або крытычна важным праграмным забеспячэнні (напрыклад, медыцынскіх або авіяцыйных сістэм) любы ўнёсак штучнага інтэлекту праходзіць строгую праверку.
Ніводная з распаўсюджаных праграмных сістэм сёння не разгортваецца цалкам напісанай штучным інтэлектам з нуля без нагляду распрацоўшчыкаў. Аднак з'яўляюцца некаторыя аўтаномныя або паўаўтаномныя спосабы іх выкарыстання:
-
Аўтаматычна згенераваныя модульныя тэсты: штучны інтэлект можа аналізаваць код і ствараць модульныя тэсты для розных выпадкаў. Тэставая платформа можа аўтаномна генераваць і запускаць гэтыя тэсты, напісаныя штучным інтэлектам, для выяўлення памылак, дапаўняючы тэсты, напісаныя чалавекам.
-
Платформы з нізкім узроўнем кода/без кода з штучным інтэлектам: некаторыя платформы дазваляюць непраграмістам апісваць свае жаданні (напрыклад, «стварыць вэб-старонку з кантактнай формай і базай дадзеных для захавання запісаў»), і сістэма генеруе код. Хоць гэта ўсё яшчэ знаходзіцца на ранніх стадыях, гэта намякае на будучыню, калі штучны інтэлект зможа аўтаномна ствараць праграмнае забеспячэнне для стандартных выпадкаў выкарыстання.
-
Скрыпты і звязванне кода: ІТ-аўтаматызацыя часта ўключае напісанне скрыптоў для злучэння сістэм. Інструменты штучнага інтэлекту часта могуць генераваць гэтыя невялікія скрыпты аўтаматычна. Напрыклад, напісанне скрыпта для аналізу файла журнала і адпраўкі апавяшчэння па электроннай пошце — штучны інтэлект можа стварыць працоўны скрыпт з мінімальнымі правамі або без іх.
Перспектывы на 2030-2035 гады: шлях да самараспрацоўкі праграмнага забеспячэння
Чакаецца, што ў наступным дзесяцігоддзі генератыўны штучны інтэлект возьме на сябе большую долю нагрузкі па кадаванні, набліжаючыся да цалкам аўтаномнай распрацоўкі праграмнага забеспячэння для пэўных класаў праектаў. Некаторыя прагназуемыя распрацоўкі:
-
Поўная рэалізацыя функцый: да 2030 года мы чакаем, што штучны інтэлект зможа рэалізоўваць простыя функцыі прыкладанняў ад пачатку да канца. Менеджэр прадукту можа апісаць функцыю простай мовай («Карыстальнікі павінны мець магчымасць скінуць свой пароль праз спасылку на электронную пошту»), а штучны інтэлект зможа згенераваць неабходны код (форма фронтэнда, логіка бэкэнда, абнаўленне базы дадзеных, адпраўка электроннай пошты) і інтэграваць яго ў кодавую базу. Штучны інтэлект будзе эфектыўна выступаць у якасці малодшага распрацоўшчыка, які можа прытрымлівацца спецыфікацый. Інжынер-чалавек можа проста правесці агляд кода і правесці тэсты. Па меры павышэння надзейнасці штучнага інтэлекту агляд кода можа стаць хуткім праглядам, калі наогул будзе.
-
Аўтаномнае абслугоўванне кода: Вялікая частка праграмнай інжынерыі — гэта не проста напісанне новага кода, але і абнаўленне існуючага кода — выпраўленне памылак, паляпшэнне прадукцыйнасці, адаптацыя да новых патрабаванняў. Будучыя распрацоўшчыкі штучнага інтэлекту, верагодна, дасягнуць поспеху ў гэтым. Маючы кодавую базу і дырэктыву («наша праграма выходзіць з ладу, калі занадта шмат карыстальнікаў адначасова ўваходзіць у сістэму»), штучны інтэлект можа выявіць праблему (напрыклад, памылку паралельнасці) і выправіць яе. Да 2035 года сістэмы штучнага інтэлекту змогуць аўтаматычна апрацоўваць запыты на рэгулярнае абслугоўванне за адну ноч, выступаючы ў якасці нястомнай брыгады па абслугоўванні праграмных сістэм.
-
Інтэграцыя і выкарыстанне API: Паколькі ўсё больш праграмных сістэм і API пастаўляюцца з дакументацыяй, якая чытаецца штучным інтэлектам, агент штучнага інтэлекту можа самастойна вызначыць, як злучыць сістэму А з сэрвісам Б, напісаўшы злучальны код. Напрыклад, калі кампанія хоча, каб яе ўнутраная сістэма кіравання персаналам сінхранізавалася з новым API разліку заработнай платы, яна можа даручыць штучнаму інтэлекту «прымусіць іх узаемадзейнічаць», і ён напіша код інтэграцыі пасля прачытання спецыфікацый абедзвюх сістэм.
-
Якасць і аптымізацыя: будучыя мадэлі генерацыі кода, верагодна, будуць уключаць цыклы зваротнай сувязі для праверкі працаздольнасці кода (напрыклад, правядзенне тэстаў або мадэлявання ў пясочніцы). Гэта азначае, што штучны інтэлект зможа не толькі пісаць код, але і самастойна карэктаваць яго, тэстуючы. Да 2035 года мы зможам уявіць сабе штучны інтэлект, які пры выкананні задання будзе працягваць паўтараць свой код, пакуль усе тэсты не пройдуць — працэс, які чалавеку, магчыма, не трэба будзе кантраляваць радок за радком. Гэта значна павысіць давер да аўтаномна згенераванага кода.
Можна ўявіць сабе сцэнар да 2035 года, калі невялікі праграмны праект — напрыклад, спецыяльнае мабільнае прыкладанне для бізнесу — мог бы распрацоўвацца ў асноўным агентам штучнага інтэлекту, якому даваліся інструкцыі высокага ўзроўню. Чалавек-«распрацоўшчык» у гэтым сцэнарыі хутчэй з'яўляецца кіраўніком праекта або валідатарам, які вызначае патрабаванні і абмежаванні (бяспека, рэкамендацыі па стылі) і дазваляе штучнаму інтэлекту выконваць цяжкую працу па фактычным кадаванні.
Аднак, для складанага, маштабнага праграмнага забеспячэння (аперацыйных сістэм, саміх перадавых алгарытмаў штучнага інтэлекту і г.д.) эксперты-людзі ўсё яшчэ будуць актыўна ўдзельнічаць. Крэатыўнае рашэнне праблем і архітэктурнае праектаванне ў праграмным забеспячэнні, верагодна, застануцца пад кіраўніцтвам чалавека на працягу некаторага часу. Штучны інтэлект можа выконваць мноства задач кадавання, але вырашэнне праблемы стварэння і праектаванне агульнай структуры — гэта ўжо іншая задача. Тым не менш, па меры таго, як генератыўны штучны інтэлект пачынае супрацоўнічаць — некалькі агентаў штучнага інтэлекту апрацоўваюць розныя кампаненты сістэмы — цалкам магчыма, што яны могуць у пэўнай ступені сумесна распрацоўваць архітэктуры (напрыклад, адзін штучны інтэлект прапануе дызайн сістэмы, другі крытыкуе яго, і яны выконваюць ітэрацыі, а чалавек кантралюе працэс).
Адной з галоўных чаканых пераваг штучнага інтэлекту ў кадаванні з'яўляецца павышэнне прадукцыйнасці . Gartner прагназуе, што да 2028 года цэлых 90% праграмных інжынераў будуць карыстацца памочнікамі па напісанні кода на базе штучнага інтэлекту (у параўнанні з менш чым 15% у 2024 годзе) ( GitHub Copilot Tops Research Report on AI Code Assistants -- Visual Studio Magazine ). Гэта сведчыць аб тым, што тых, хто вылучаецца — тых, хто не выкарыстоўвае штучны інтэлект, — будзе мала. Мы таксама можам назіраць недахоп распрацоўшчыкаў-людзей у пэўных галінах, які будзе змякчаны за кошт таго, што штучны інтэлект запоўніць прабелы; па сутнасці, кожны распрацоўшчык можа зрабіць значна больш з памочнікам на базе штучнага інтэлекту, які можа аўтаномна складаць код.
Давер застанецца цэнтральнай праблемай. Нават у 2035 годзе арганізацыям трэба будзе гарантаваць бяспеку аўтаномна згенераванага кода (штучны інтэлект не павінен ствараць уразлівасці) і адпаведнасць яму прававым/этычным нормам (напрыклад, штучны інтэлект не павінен уключаць плагіят з бібліятэкі з адкрытым зыходным кодам без належнай ліцэнзіі). Мы чакаем, што ўдасканаленыя інструменты кіравання штучным інтэлектам, якія змогуць правяраць і адсочваць паходжанне кода, напісанага штучным інтэлектам, дапамогуць забяспечыць больш аўтаномнае кадаванне без рызыкі.
Карацей кажучы, да сярэдзіны 2030-х гадоў генератыўны штучны інтэлект, верагодна, будзе выконваць львіную долю кадавання для руцінных праграмных задач і значна дапамагаць у складаных. Жыццёвы цыкл распрацоўкі праграмнага забеспячэння будзе значна больш аўтаматызаваны — ад патрабаванняў да разгортвання — прычым штучны інтэлект патэнцыйна будзе аўтаматычна генераваць і разгортваць змены ў коде. Распрацоўшчыкі будуць больш засяроджвацца на логіцы высокага ўзроўню, карыстальніцкім досведзе і кантролі, у той час як агенты штучнага інтэлекту будуць старанна вывучаць дэталі рэалізацыі.
Генератыўны штучны інтэлект у абслугоўванні і падтрымцы кліентаў
Калі вы нядаўна ўзаемадзейнічалі з онлайн-чатам падтрымкі кліентаў, ёсць вялікая верагоднасць, што на другім канцы хаця б частку гэтага часу на іншым канцы быў штучны інтэлект. Абслугоўванне кліентаў — гэта вобласць, спраўная з аўтаматызацыяй штучнага інтэлекту: яно прадугледжвае адказ на запыты карыстальнікаў, з чым генератыўны штучны інтэлект (асабліва размоўныя мадэлі) можа справіцца даволі добра, і часта выконвае сцэнарыі або артыкулы базы ведаў, якія штучны інтэлект можа вывучыць. Наколькі аўтаномна штучны інтэлект можа апрацоўваць кліентаў?
Бягучыя магчымасці (2025): Чат-боты і віртуальныя агенты на перадавой
На сённяшні дзень многія арганізацыі выкарыстоўваюць чат-боты са штучным інтэлектам у якасці першага пункта кантакту ў абслугоўванні кліентаў. Сярод іх ёсць як простыя боты на аснове правілаў («Націсніце 1 для аплаты, 2 для падтрымкі…»), так і прасунутыя генератыўныя чат-боты са штучным інтэлектам, якія могуць інтэрпрэтаваць пытанні ў свабоднай форме і адказваць у размове. Ключавыя моманты:
-
Апрацоўка распаўсюджаных пытанняў: агенты са штучным інтэлектам выдатна спраўляюцца з адказамі на часта задаваныя пытанні, прадастаўляюць інфармацыю (гадзіны працы крамы, палітыка вяртання грошай, крокі па ліквідацыі вядомых праблем) і дапамагаюць карыстальнікам выконваць стандартныя працэдуры. Напрыклад, чат-бот са штучным інтэлектам для банка можа самастойна дапамагчы карыстальніку праверыць баланс свайго рахунку, скінуць пароль або растлумачыць, як падаць заяўку на крэдыт, без дапамогі чалавека.
-
Разуменне натуральнай мовы: Сучасныя генератыўныя мадэлі дазваляюць больш плыўнае і «падобнае да чалавечага» ўзаемадзеянне. Кліенты могуць набраць пытанне сваімі словамі, і штучны інтэлект звычайна можа зразумець намер. Кампаніі паведамляюць, што сённяшнія агенты са штучным інтэлектам значна больш задавальняюць кліентаў, чым нязграбныя боты некалькі гадоў таму — амаль палова кліентаў цяпер лічыць, што агенты са штучным інтэлектам могуць быць эмпатычнымі і эфектыўнымі пры вырашэнні праблем ( 59 статыстычных дадзеных аб абслугоўванні кліентаў са штучным інтэлектам за 2025 год ), што сведчыць аб росте даверу да паслуг на аснове штучнага інтэлекту.
-
Шматканальная падтрымка: Штучны інтэлект не толькі ў чаце. Галасавыя памочнікі (напрыклад, сістэмы IVR для тэлефонаў з штучным інтэлектам) пачынаюць апрацоўваць званкі, і штучны інтэлект таксама можа рыхтаваць адказы па электроннай пошце на запыты кліентаў, якія могуць адпраўляцца аўтаматычна, калі яны будуць прызнаны дакладнымі.
-
Калі ўмешваюцца людзі: Звычайна, калі штучны інтэлект блытаецца або пытанне занадта складанае, ён перадае адказ чалавеку. Сучасныя сістэмы ў многіх выпадках добра ведаюць свае межы . Напрыклад, калі кліент пытаецца нешта незвычайнае або выказвае расчараванне («Я звяртаюся да вас ужо трэці раз, і я вельмі засмучаны...»), штучны інтэлект можа пазначыць гэта, каб чалавек узяў на сябе адказнасць. Парог для перадачы адказнасці ўстанаўліваецца кампаніямі, каб збалансаваць эфектыўнасць і задаволенасць кліентаў.
Шматлікія кампаніі паведамляюць, што значная частка ўзаемадзеянняў вырашаецца выключна з дапамогай штучнага інтэлекту. Згодна з галіновымі апытаннямі, сёння каля 70-80% звычайных запытаў кліентаў могуць быць апрацаваны чат-ботамі са штучным інтэлектам, і каля 40% узаемадзеянняў кампаній з кліентамі па розных каналах ужо аўтаматызавана або падтрымліваецца штучным інтэлектам ( 52 статыстычныя дадзеныя па абслугоўванні кліентаў са штучным інтэлектам, якія вы павінны ведаць - Plivo ). Глабальны індэкс укаранення штучнага інтэлекту IBM (2022) паказаў, што 80% кампаній выкарыстоўваюць або плануюць выкарыстоўваць чат-ботаў са штучным інтэлектам для абслугоўвання кліентаў да 2025 года.
Цікавай распрацоўкай з'яўляецца тое, што штучны інтэлект не проста адказвае кліентам, але і праактыўна дапамагае агентам-чалавекам у рэжыме рэальнага часу. Напрыклад, падчас жывога чата або званка штучны інтэлект можа слухаць і імгненна прадастаўляць агенту-чалавеку прапанаваныя адказы або адпаведную інфармацыю. Гэта размывае мяжу аўтаноміі — штучны інтэлект не сутыкаецца з кліентам сам-насам, а актыўна ўдзельнічае без відавочных запытаў ад чалавека. Ён эфектыўна выступае ў якасці аўтаномнага кансультанта агента.
Перспектывы на 2030-2035 гады: узаемадзеянне з кліентамі ў значнай ступені з выкарыстаннем штучнага інтэлекту
Чакаецца, што да 2030 года большасць узаемадзеянняў з кліентамі ў сферы абслугоўвання будуць ажыццяўляцца з выкарыстаннем штучнага інтэлекту, прычым многія з іх будуць цалкам апрацоўвацца штучным інтэлектам ад пачатку да канца. Прагнозы і тэндэнцыі, якія пацвярджаюць гэта:
-
Вырашаныя запыты большай складанасці: Па меры таго, як мадэлі штучнага інтэлекту інтэгруюць шырокія веды і паляпшаюць лагічнае мысленне, яны змогуць апрацоўваць больш складаныя запыты кліентаў. Замест таго, каб проста адказваць на пытанне «Як мне вярнуць тавар?», будучы штучны інтэлект зможа апрацоўваць шматэтапныя праблемы, такія як «У мяне не працуе інтэрнэт, я спрабаваў перазагрузіць кампутар, ці можаце вы дапамагчы?», дыягнастуючы праблему праз дыялог, накіроўваючы кліента праз пашыраны працэс ліквідацыі непаладак і толькі ў выпадку неэфектыўнасці прызначаючы тэхніка — задачы, для якіх сёння, верагодна, патрабаваўся б чалавек. У сферы абслугоўвання кліентаў у сферы аховы здароўя штучны інтэлект можа апрацоўваць запыты пацыентаў на прыём або страхавыя пытанні ад пачатку да канца.
-
Рашэнне аб комплексным абслугоўванні: Мы можам убачыць, як штучны інтэлект не проста кажа кліенту, што рабіць, але і робіць гэта ад імя кліента ў бэкэнд-сістэмах. Напрыклад, калі кліент кажа: «Я хачу змяніць свой рэйс на наступны панядзелак і дадаць яшчэ адзін багаж», агент штучнага інтэлекту ў 2030 годзе можа непасрэдна ўзаемадзейнічаць з сістэмай браніравання авіякампаніі, выканаць змены, апрацаваць аплату за багаж і пацвердзіць кліенту — усё гэта аўтаномна. Штучны інтэлект становіцца паўнавартасным агентам абслугоўвання, а не проста крыніцай інфармацыі.
-
Усюдыісныя агенты штучнага інтэлекту: кампаніі, верагодна, будуць укараняць штучны інтэлект ва ўсіх кропках кантакту з кліентамі — тэлефон, чат, электронная пошта, сацыяльныя сеткі. Многія кліенты могуць нават не ўсведамляць, ці размаўляюць яны са штучным інтэлектам, ці з чалавекам, асабліва па меры таго, як галасы штучнага інтэлекту становяцца больш натуральнымі, а адказы ў чаце — больш кантэкстнымі. Да 2035 года зварот у службу падтрымкі кліентаў часта можа азначаць узаемадзеянне з разумным штучным інтэлектам, які памятае вашы мінулыя ўзаемадзеянні, разумее вашы перавагі і адаптуецца да вашага тону — па сутнасці, персаналізаваны віртуальны агент для кожнага кліента.
-
Прыняцце рашэнняў з дапамогай штучнага інтэлекту ва ўзаемадзеянні: акрамя адказаў на пытанні, штучны інтэлект пачне прымаць рашэнні, якія ў цяперашні час патрабуюць адабрэння кіраўніцтва. Напрыклад, сёння чалавеку можа спатрэбіцца адабрэнне кіраўніка, каб прапанаваць вяртанне грошай або спецыяльную зніжку, каб супакоіць раззлаванага кліента. У будучыні гэтыя рашэнні могуць быць даручаны штучнаму інтэлекту ў пэўных межах, зыходзячы з разлічанай каштоўнасці жыцця кліента і аналізу настрояў. Даследаванне Futurum/IBM прагназуе, што да 2030 года каля 69% рашэнняў, прынятых падчас узаемадзеяння з кліентамі ў рэжыме рэальнага часу, будуць прымацца разумнымі машынамі ( Каб пераасэнсаваць пераход да кліента, маркетолагі павінны зрабіць гэтыя 2 рэчы ) — фактычна штучны інтэлект будзе вызначаць найлепшы курс дзеянняў ва ўзаемадзеянні.
-
100% удзел штучнага інтэлекту: У адным з дакладаў гаворыцца, што штучны інтэлект у рэшце рэшт будзе гуляць ролю ва ўсім узаемадзеянні з кліентам ( 59 статыстычных дадзеных аб абслугоўванні кліентаў з выкарыстаннем штучнага інтэлекту за 2025 год ), як на пачатку, так і ў фонавым рэжыме. Гэта можа азначаць, што нават калі чалавек узаемадзейнічае з кліентам, яму будзе дапамагаць штучны інтэлект (прадастаўляць прапановы, атрымліваць інфармацыю). Акрамя таго, ніводнае пытанне кліента не застаецца без адказу — калі людзі афлайн, штучны інтэлект заўсёды побач.
Да 2035 года мы можам выявіць, што агенты па абслугоўванні кліентаў спецыялізуюцца толькі на самых адчувальных або частых сітуацыях (напрыклад, VIP-кліенты або вырашэнне складаных скаргаў, якія патрабуюць чалавечай эмпатыі). Рэгулярныя запыты — ад банкаўскіх паслуг да рознічнага гандлю і тэхнічнай падтрымкі — могуць абслугоўвацца групай агентаў са штучным інтэлектам, якія працуюць кругласутачна і пастаянна вучацца на кожным узаемадзеянні. Гэты зрух можа зрабіць абслугоўванне кліентаў больш паслядоўным і аператыўным, бо штучны інтэлект не прымушае людзей чакаць і тэарэтычна можа выконваць некалькі задач адначасова, апрацоўваючы неабмежаваную колькасць кліентаў.
Для рэалізацыі гэтай бачання ёсць шэраг праблем, якія трэба пераадолець: штучны інтэлект павінен быць вельмі ўстойлівым, каб спраўляцца з непрадказальнасцю кліентаў. Ён павінен умець спраўляцца са слэнгам, гневам, разгубленасцю і бясконцай разнастайнасцю спосабаў зносін людзей. Ён таксама патрабуе актуальных ведаў (няма сэнсу, калі інфармацыя штучнага інтэлекту састарэла). Інвестуючы ў інтэграцыю паміж штучным інтэлектам і базамі дадзеных кампаніі (для атрымання інфармацыі аб заказах, збоях і г.д. у рэжыме рэальнага часу), гэтыя перашкоды можна вырашыць.
З этычнага пункту гледжання, кампаніям трэба будзе вырашыць, калі раскрываць інфармацыю пра тое, што «вы размаўляеце са штучным інтэлектам», і забяспечыць справядлівасць (штучны інтэлект не ставіцца да пэўных кліентаў негатыўна з-за прадузятага навучання). Калі выказаць здагадку, што гэтыя фактары будуць кіравацца, бізнес-кейс пераканаўчы: абслугоўванне кліентаў з дапамогай штучнага інтэлекту можа значна скараціць выдаткі і час чакання. Прагназуецца, што рынак штучнага інтэлекту ў абслугоўванні кліентаў вырасце да дзясяткаў мільярдаў долараў да 2030 года ( Справаздача аб рынку абслугоўвання кліентаў з дапамогай штучнага інтэлекту 2025-2030: кейс ) ( Як генератыўны штучны інтэлект стымулюе лагістыку | Ryder ), паколькі арганізацыі інвестуюць у гэтыя магчымасці.
Карацей кажучы, чакайце будучыні, дзе аўтаномнае абслугоўванне кліентаў з дапамогай штучнага інтэлекту стане нормай . Атрыманне дапамогі часта будзе азначаць узаемадзеянне з разумнай машынай, якая можа хутка вырашыць вашу праблему. Людзі ўсё яшчэ будуць кантраляваць і вырашаць памежныя выпадкі, але больш у якасці кіраўнікоў персаналу, які працуе са штучным інтэлектам. Вынікам можа стаць больш хуткае і персаналізаванае абслугоўванне для спажыўцоў — пры ўмове належнага навучання і кантролю за працай штучнага інтэлекту, каб пазбегнуць расчараванняў, выкліканых «гарачымі лініямі робатаў», якія ўзнікалі ў мінулым.
Генератыўны штучны інтэлект у ахове здароўя і медыцыне
Ахова здароўя — гэта сфера, дзе стаўкі высокія. Ідэя таго, што штучны інтэлект працуе ў медыцыне без кантролю чалавека, выклікае як хваляванне (з-за эфектыўнасці і ахопу), так і асцярожнасць (з меркаванняў бяспекі і эмпатыі). Генератыўны штучны інтэлект пачаў прабівацца ў такія галіны, як аналіз медыцынскай візуалізацыі, клінічная дакументацыя і нават распрацоўка лекаў. Што ён можа адказна рабіць самастойна?
Бягучыя магчымасці (2025): Дапамога клініцыстам, а не іх замена
У цяперашні час генератыўны штучны інтэлект у ахове здароўя ў першую чаргу служыць магутным памочнікам медыцынскіх работнікаў, а не аўтаномным прымальнікам рашэнняў. Напрыклад:
-
Медыцынская дакументацыя: Адным з найбольш паспяховых ужыванняў штучнага інтэлекту ў ахове здароўя з'яўляецца дапамога лекарам з афармленнем дакументаў. Мадэлі натуральнай мовы могуць транскрыбаваць візіты пацыентаў і ствараць клінічныя запісы або выпіскі. У кампаній ёсць «пісары са штучным інтэлектам», якія слухаюць падчас агляду (праз мікрафон) і аўтаматычна ствараюць чарнавік запісаў аб сустрэчы для азнаямлення лекара. Гэта эканоміць час лекараў на набор тэксту. Некаторыя сістэмы нават аўтаматычна запаўняюць часткі электронных медыцынскіх карт. Гэта можна зрабіць з мінімальным умяшаннем — лекар проста выпраўляе любыя дробныя памылкі ў чарнавіку, што азначае, што напісанне запісаў у значнай ступені аўтаномнае.
-
Радыялогія і візуалізацыя: штучны інтэлект, у тым ліку генератыўныя мадэлі, можа аналізаваць рэнтгенаўскія здымкі, МРТ і КТ для выяўлення анамалій (напрыклад, пухлін або пераломаў). У 2018 годзе FDA зацвердзіла сістэму штучнага інтэлекту для аўтаномнага выяўлення дыябетычнай рэтынапатыі (захворвання вачэй) на выявах сятчаткі — прыкметна, што ёй было дазволена рабіць запыт без агляду спецыяліста ў гэтым канкрэтным кантэксце скрынінга. Гэтая сістэма не была генератыўным штучным інтэлектам, але яна паказвае, што рэгулятары дазволілі аўтаномную дыягностыку з дапамогай штучнага інтэлекту ў абмежаваных выпадках. Генератыўныя мадэлі выкарыстоўваюцца для стварэння комплексных справаздач. Напрыклад, штучны інтэлект можа вывучыць рэнтген грудной клеткі і скласці справаздачу рэнтгенолага, у якой будзе напісана: «Няма вострых прыкмет. Лёгкія чыстыя. Сэрца нармальнага памеру». Затым рэнтгенолаг проста пацвярджае і падпісвае. У некаторых звычайных выпадках гэтыя справаздачы могуць быць апублікаваныя без правак, калі рэнтгенолаг давярае штучнаму інтэлекту і проста правядзе хуткую праверку.
-
Праверка сімптомаў і віртуальныя медсёстры: генератыўныя чат-боты з штучным інтэлектам выкарыстоўваюцца ў якасці праверкі сімптомаў на перадавой. Пацыенты могуць уводзіць свае сімптомы і атрымліваць парады (напрыклад, «Гэта можа быць звычайная прастуда; адпачывайце і піце вадкасці, але звярніцеся да лекара, калі ўзнікне X або Y»). Такія праграмы, як Babylon Health, выкарыстоўваюць штучны інтэлект для давання рэкамендацый. У цяперашні час яны звычайна афармляюцца як інфармацыйныя, а не канчатковыя медыцынскія парады, і яны заахвочваюць да наступнага візіту да ўрача-людзімы пры сур'ёзных праблемах.
-
Адкрыццё лекаў (генератыўная хімія): Мадэлі генератыўнага штучнага інтэлекту могуць прапаноўваць новыя малекулярныя структуры для лекаў. Гэта хутчэй даследчая сфера, чым догляд за пацыентамі. Гэтыя штучныя інтэлекты працуюць аўтаномна, прапаноўваючы тысячы кандыдатаў у лекі з патрэбнымі ўласцівасцямі, якія хімікі-людзі затым разглядаюць і тэстуюць у лабараторыі. Такія кампаніі, як Insilico Medicine, выкарыстоўваюць штучны інтэлект для стварэння новых кандыдатаў у лекі за значна меншы час. Хоць гэта не ўзаемадзейнічае непасрэдна з пацыентамі, гэта прыклад таго, як штучны інтэлект аўтаномна стварае рашэнні (малекулярныя дызайны), на пошук якіх людзям спатрэбілася б значна больш часу.
-
Аперацыі ў сферы аховы здароўя: штучны інтэлект дапамагае аптымізаваць планаванне, кіраванне пастаўкамі і іншыя лагістычныя функцыі ў бальніцах. Напрыклад, генератыўная мадэль можа мадэляваць паток пацыентаў і прапаноўваць карэкціроўкі раскладу для скарачэння часу чакання. Хоць гэта і не так бачна, гэтыя рашэнні можа прымаць штучны інтэлект з мінімальнымі ўручную зменамі.
Важна адзначыць, што па стане на 2025 год ніводная бальніца не дазваляе штучнаму інтэлекту самастойна прымаць важныя медыцынскія рашэнні або метады лячэння без зацвярджэння чалавекам. Дыягностыка і планаванне лячэння застаюцца ў руках чалавека, прычым штучны інтэлект забяспечвае ўваходныя дадзеныя. Давер, неабходны для таго, каб штучны інтэлект цалкам аўтаномна сказаў пацыенту «У вас рак» або прызначыў лекі, пакуль не існуе, і ён не павінен быць такім без шырокай праверкі. Медыцынскія работнікі выкарыстоўваюць штучны інтэлект як другую пару вачэй або як інструмент эканоміі часу, але ён правярае крытычна важныя вынікі.
Перспектывы на 2030-2035 гады: штучны інтэлект як калега лекара (і, магчыма, медсястры ці фармацэўта)
У наступным дзесяцігоддзі мы чакаем, што генератыўны штучны інтэлект будзе самастойна выконваць больш руцінных клінічных задач і пашырыць ахоп медыцынскіх паслуг:
-
Аўтаматызаваныя папярэднія дыягназы: да 2030 года штучны інтэлект зможа надзейна выконваць першапачатковы аналіз многіх распаўсюджаных захворванняў. Уявіце сабе сістэму штучнага інтэлекту ў клініцы, якая счытвае сімптомы пацыента, гісторыю хваробы, нават яго тон і міміку праз камеру, а таксама прапануе дыягнастычныя прапановы і рэкамендаваныя аналізы — усё гэта яшчэ да таго, як лекар-чалавек агледзіць пацыента. Затым лекар можа засяродзіцца на пацверджанні і абмеркаванні дыягназу. У тэлемедыцыне пацыент можа спачатку пагутарыць са штучным інтэлектам, які звузіць кола праблем (напрыклад, верагодная інфекцыя пазух носа ці нешта больш сур'ёзнае), а затым пры неабходнасці злучыць яго з клініцыстам. Рэгулятары могуць дазволіць штучнаму інтэлекту афіцыйна дыягнаставаць пэўныя нязначныя захворванні без кантролю чалавека, калі гэта будзе даказана надзвычай дакладна — напрыклад, штучны інтэлект можа дыягнаставаць простую інфекцыю вуха па выяве отаскопа.
-
Персанальныя маніторы здароўя: з распаўсюджваннем носных прылад (разумных гадзіннікаў, датчыкаў здароўя) штучны інтэлект будзе бесперапынна кантраляваць пацыентаў і аўтаматычна папярэджваць аб праблемах. Напрыклад, да 2035 года штучны інтэлект вашай носной прылады зможа выяўляць парушэнне сардэчнага рытму і аўтаматычна запісваць вас на тэрміновую віртуальную кансультацыю або нават выклікаць хуткую дапамогу, калі выявіць прыкметы сардэчнага прыступу або інсульту. Гэта пераходзіць у сферу аўтаномнага прыняцця рашэнняў — прыняцця рашэння аб тым, што сітуацыя з'яўляецца надзвычайнай, і прыняцця мер — што з'яўляецца верагодным і выратавальным выкарыстаннем штучнага інтэлекту.
-
Рэкамендацыі па лячэнні: генератыўны штучны інтэлект, навучаны на медыцынскай літаратуры і дадзеных пацыентаў, можа прапанаваць персаналізаваныя планы лячэння. Да 2030 года для такіх складаных захворванняў, як рак, камісіі па пухлінах на базе штучнага інтэлекту змогуць аналізаваць генетычны склад і гісторыю хваробы пацыента і самастойна распрацоўваць рэкамендаваны рэжым лячэння (план хіміятэрапіі, выбар лекаў). Лекары будуць яго пераглядаць, але з часам, па меры росту ўпэўненасці, яны могуць пачаць прымаць планы, створаныя штучным інтэлектам, асабліва для звычайных выпадкаў, карэктуючы іх толькі пры неабходнасці.
-
Віртуальныя медсёстры і хатні догляд: Штучны інтэлект, які можа размаўляць і даваць медыцынскія рэкамендацыі, можа выконваць вялікую колькасць наступных мерапрыемстваў і маніторынг хранічных захворванняў. Напрыклад, пацыенты з хранічнымі захворваннямі, якія знаходзяцца дома, могуць штодзённа паведамляць пра паказчыкі памочніку медсястры са штучным інтэлектам, які дае парады («Узровень цукру ў крыві крыху высокі, падумайце аб карэкціроўцы вячэрняга перакусу») і падключаецца да медсястры-чалавека толькі тады, калі паказчыкі выходзяць за рамкі або ўзнікаюць праблемы. Гэты штучны інтэлект можа працаваць у значнай ступені аўтаномна пад дыстанцыйным наглядам лекара.
-
Медыцынская візуалізацыя і лабараторны аналіз — цалкам аўтаматызаваныя канвееры: да 2035 года ў некаторых галінах счытванне медыцынскіх сканаў можа пераважна выконвацца штучным інтэлектам. Рэнтгенолагі будуць кантраляваць сістэмы штучнага інтэлекту і займацца складанымі выпадкамі, але большасць звычайных сканаў (якія сапраўды з'яўляюцца нармальнымі) могуць быць «счытаны» і падпісаны непасрэдна штучным інтэлектам. Аналагічна, аналіз паталагічных слайдаў (напрыклад, выяўленне ракавых клетак пры біяпсіі) можа выконвацца аўтаномна для першапачатковага скрынінга, што значна паскарае атрыманне лабараторных вынікаў.
-
Распрацоўка лекаў і клінічныя выпрабаванні: штучны інтэлект, верагодна, будзе распрацоўваць не толькі малекулы лекаў, але і генераваць сінтэтычныя дадзеныя пацыентаў для выпрабаванняў або знаходзіць аптымальных кандыдатаў для выпрабаванняў. Ён можа аўтаномна праводзіць віртуальныя выпрабаванні (імітуючы рэакцыю пацыентаў), каб звузіць выбар варыянтаў перад рэальнымі выпрабаваннямі. Гэта можа хутчэй вывесці лекі на рынак з меншай колькасцю эксперыментаў з удзелам чалавека.
Бачанне лекара са штучным інтэлектам, які цалкам заменіць лекара-чалавека, усё яшчэ даволі далёкае і застаецца спрэчным. Чакаецца, што нават да 2035 года штучны інтэлект будзе служыць калегам для лекараў, а не заменнікам чалавечага дотыку. Складаная дыягностыка часта патрабуе інтуіцыі, этыкі і размоў, каб зразумець кантэкст пацыента — сферы, у якіх лекары-людзі дасягаюць поспеху. Тым не менш, штучны інтэлект можа выконваць, скажам, 80% руціннай працы: апрацоўка дакументаў, простыя выпадкі, маніторынг і г.д., што дазволіць лекарам-людзям засяродзіцца на складаных 20% і на ўзаемаадносінах з пацыентамі.
Існуюць значныя перашкоды: рэгулятарныя патрабаванні да адабрэння аўтаномнага штучнага інтэлекту ў ахове здароўя з'яўляюцца строгімі (што цалкам дарэчы). Сістэмы штучнага інтэлекту патрабуюць шырокай клінічнай праверкі. Мы можам убачыць паступовае прыняцце — напрыклад, штучнаму інтэлекту будзе дазволена аўтаномна дыягнаставаць або лячыць у недастаткова абслугоўваемых раёнах, дзе няма лекараў, як спосаб пашырэння доступу да медыцынскай дапамогі (уявіце сабе «клініку штучнага інтэлекту» ў аддаленай вёсцы да 2030 года, якая будзе працаваць пад перыядычным тэлекантролем лекара з горада).
Этычныя меркаванні маюць вялікае значэнне. Падсправаздачнасць (калі аўтаномны штучны інтэлект памыляецца ў дыягностыцы, хто нясе адказнасць?), інфармаваная згода (пацыенты павінны ведаць, ці ўдзельнічае штучны інтэлект у іх лячэнні) і забеспячэнне справядлівасці (штучны інтэлект добра працуе для ўсіх груп насельніцтва, пазбягаючы прадузятасці) — вось праблемы, з якімі трэба справіцца. Калі гэтыя пытанні будуць вырашаны, да сярэдзіны 2030-х гадоў генератыўны штучны інтэлект можа быць уплецены ў структуру аказання медыцынскай дапамогі, выконваючы мноства задач, якія вызваляюць месца для медыцынскіх работнікаў і патэнцыйна ахопліваюць пацыентаў, якія ў цяперашні час маюць абмежаваны доступ.
Карацей кажучы, да 2035 года ў ахову здароўя, хутчэй за ўсё, будзе глыбока інтэграваны штучны інтэлект, але ў асноўным ён будзе выконваць дапаможныя ролі. Мы будзем давяраць штучнаму інтэлекту шмат што рабіць самастойна — чытаць сканы, адсочваць жыццёва важныя паказчыкі, складаць планы — але з захаваннем чалавечага кантролю для прыняцця важных рашэнняў. Вынікам можа стаць больш эфектыўная і адаптыўная сістэма аховы здароўя, дзе штучны інтэлект будзе выконваць цяжкую працу, а людзі будуць забяспечваць эмпатыю і канчатковае рашэнне.
Генератыўны штучны інтэлект у адукацыі
Адукацыя — яшчэ адна сфера, дзе генератыўны штучны інтэлект набірае абароты, ад ботаў-рэпетытараў на базе штучнага інтэлекту да аўтаматызаванага ацэньвання і стварэння кантэнту. Выкладанне і навучанне ўключаюць камунікацыю і творчасць, што з'яўляецца моцнымі бакамі генератыўных мадэляў. Але ці можна давяраць штучнаму інтэлекту навучанне без нагляду настаўніка?
Бягучыя магчымасці (2025): Рэпетытары і генератары кантэнту на павадку
Зараз штучны інтэлект выкарыстоўваецца ў адукацыі ў асноўным як дадатковы інструмент, а не як асобны настаўнік. Прыклады бягучага выкарыстання:
-
Памочнікі рэпетытараў са штучным інтэлектам: такія інструменты, як «Khanmigo» ад Акадэміі Хана (на базе GPT-4), або розныя праграмы для вывучэння моў выкарыстоўваюць штучны інтэлект для імітацыі індывідуальнай працы рэпетытара або партнёра па размове. Вучні могуць задаваць пытанні на натуральнай мове і атрымліваць адказы або тлумачэнні. Штучны інтэлект можа даваць падказкі для вырашэння хатніх заданняў, тлумачыць паняцці рознымі спосабамі або нават разыгрываць ролю гістарычнай асобы на інтэрактыўным уроку гісторыі. Аднак гэтыя рэпетытары са штучным інтэлектам звычайна выкарыстоўваюцца пад наглядам; настаўнікі або распрацоўшчыкі праграм часта кантралююць дыялогі або ўстанаўліваюць межы таго, што можа абмяркоўваць штучны інтэлект (каб пазбегнуць дэзінфармацыі або неадпаведнага кантэнту).
-
Стварэнне кантэнту для настаўнікаў: генератыўны штучны інтэлект дапамагае настаўнікам, ствараючы пытанні для віктарын, кароткія зместы прачытанага, планы ўрокаў і гэтак далей. Настаўнік можа папрасіць штучны інтэлект: «Стварыце 5 практычных задач па квадратных ураўненнях з адказамі», што зэканоміць час на падрыхтоўку. Гэта аўтаномнае стварэнне кантэнту, але настаўнік звычайна правярае вынік на дакладнасць і адпаведнасць вучэбнай праграме. Такім чынам, гэта хутчэй сродак эканоміі працы, чым цалкам незалежная праца.
-
Ацэньванне і зваротная сувязь: ШІ можа аўтаматычна ацэньваць экзамены з некалькімі варыянтамі адказаў (нічога новага) і ўсё часцей можа ацэньваць кароткія адказы або эсэ. Некаторыя школьныя сістэмы выкарыстоўваюць ШІ для ацэньвання пісьмовых адказаў і прадастаўлення вучням зваротнай сувязі (напрыклад, граматычныя выпраўленні, прапановы па пашырэнні аргументацыі). Хоць гэта і не генератыўная задача як такая, новыя ШІ могуць нават ствараць персаналізаваную справаздачу з зваротнай сувяззю для вучня на аснове яго поспехаў, вылучаючы вобласці, якія патрабуюць паляпшэння. Настаўнікі часта пераправяраюць эсэ, ацэненыя ШІ, на гэтым этапе з-за занепакоенасці нюансамі.
-
Адаптыўныя сістэмы навучання: гэта платформы, якія карэктуюць складанасць або стыль матэрыялу ў залежнасці ад поспехаў вучня. Генератыўны штучны інтэлект паляпшае гэта, ствараючы новыя задачы або прыклады на хаду, адаптаваныя да патрэб вучня. Напрыклад, калі вучань мае цяжкасці з нейкай канцэпцыяй, штучны інтэлект можа стварыць іншую аналогію або практычнае пытанне, сканцэнтраванае на гэтай канцэпцыі. Гэта ў пэўнай ступені аўтаномна, але ў рамках сістэмы, распрацаванай выкладчыкамі.
-
Выкарыстанне студэнтамі для навучання: Студэнты самі выкарыстоўваюць такія інструменты, як ChatGPT, каб дапамагчы ў навучанні — просячы тлумачэнні, пераклады ці нават выкарыстоўваючы штучны інтэлект, каб атрымаць водгукі аб чарнавіку эсэ («палепшыць свой уступны абзац»). Гэта самастойнае заданне, якое можа выконвацца без ведама настаўніка. У гэтым выпадку штучны інтэлект выступае ў якасці рэпетытара або карэктара па патрабаванні. Задача заключаецца ў тым, каб студэнты выкарыстоўвалі яго для навучання, а не проста для атрымання адказаў (акадэмічная сумленнасць).
Зразумела, што па стане на 2025 год штучны інтэлект у адукацыі з'яўляецца магутным, але звычайна працуе з чалавекам-выкладчыкам, які кантралюе ўклад штучнага інтэлекту. Існуюць зразумелая асцярожнасць: мы не хочам давяраць штучнаму інтэлекту выкладанне няправільнай інфармацыі або апрацоўку канфідэнцыйных узаемадзеянняў са студэнтамі ў вакууме. Настаўнікі разглядаюць рэпетытараў са штучным інтэлектам як карысных памочнікаў, якія могуць даць студэнтам больш практыкі і неадкладныя адказы на звычайныя пытанні, вызваляючы настаўнікаў для канцэнтрацыі на больш глыбокім настаўніцтве.
Перспектывы на 2030-2035 гады: персаналізаваныя рэпетытары са штучным інтэлектам і аўтаматызаваныя памочнікі выкладчыкаў
Мы чакаем, што ў наступным дзесяцігоддзі генератыўны штучны інтэлект дазволіць стварыць больш персаналізаваны і аўтаномны навучальны вопыт , у той час як ролі настаўнікаў будуць змяняцца:
-
Персанальныя рэпетытары са штучным інтэлектам для кожнага вучня: да 2030 года бачанне (якое падзяляюць такія эксперты, як Сал Хан з Акадэміі Хана) заключаецца ў тым, каб кожны вучань меў доступ да рэпетытара са штучным інтэлектам, які ў многіх адносінах гэтак жа эфектыўны, як і рэпетытар-чалавек ( гэты рэпетытар са штучным інтэлектам можа зрабіць людзей у 10 разоў разумнейшымі, кажа яго стваральнік ). Гэтыя рэпетытары са штучным інтэлектам будуць даступныя 24/7, будуць добра ведаць гісторыю навучання вучня і адпаведна адаптаваць свой стыль выкладання. Напрыклад, калі вучань з'яўляецца візуальным вучнем, які мае цяжкасці з алгебраічнай канцэпцыяй, штучны інтэлект можа дынамічна ствараць візуальнае тлумачэнне або інтэрактыўную сімуляцыю, каб дапамагчы. Паколькі штучны інтэлект можа адсочваць прагрэс вучня з цягам часу, ён можа самастойна вырашаць, якую тэму перагледзець далей або калі перайсці да новага навыку — эфектыўна кіруючы планам урока для гэтага вучня ў мікрасэнсе.
-
Зніжэнне нагрузкі на настаўніка пры выкананні руцінных задач: ацэньванне, стварэнне рабочых лістоў, напісанне ўрокаў — да 2030-х гадоў гэтыя задачы могуць быць амаль цалкам перакладзены на штучны інтэлект. Штучны інтэлект зможа ствараць тыднёвыя хатнія заданні для класа, ацэньваць усе заданні мінулага тыдня (нават тыя, што маюць адкрытыя адказы) з зваротнай сувяззю і адзначаць настаўніку, якім вучням можа спатрэбіцца дадатковая дапамога па якіх тэмах. Гэта можа адбыцца з мінімальным удзелам настаўніка, магчыма, проста хуткім позіркам, каб пераканацца, што адзнакі штучнага інтэлекту здаюцца справядлівымі.
-
Аўтаномныя адаптыўныя навучальныя платформы: Мы можам убачыць цалкам арыентаваныя на штучны інтэлект курсы па пэўных прадметах. Уявіце сабе анлайн-курс без выкладчыка-чалавека, дзе агент штучнага інтэлекту прадстаўляе матэрыял, дае прыклады, адказвае на пытанні і карэктуе тэмп у залежнасці ад студэнта. Вопыт студэнта можа быць унікальным для яго, генеруецца ў рэжыме рэальнага часу. Некаторыя карпаратыўныя трэнінгі і навучанне дарослых могуць перайсці на гэтую мадэль раней, калі да 2035 года супрацоўнік зможа сказаць: «Я хачу вывучыць складаныя макрасы Excel», і выкладчык штучнага інтэлекту будзе навучаць яго па персаналізаванай праграме, уключаючы стварэнне практыкаванняў і ацэнку іх рашэнняў, без выкладчыка-чалавека.
-
Памочнікі штучнага інтэлекту ў класе: у фізічных або віртуальных класах штучны інтэлект можа праслухоўваць дыскусіі ў класе і дапамагаць настаўніку на хаду (напрыклад, шаптаць прапановы праз навушнік: «Некалькі вучняў выглядаюць збянтэжанымі наконт гэтай канцэпцыі, магчыма, прывядзіце іншы прыклад»). Ён таксама можа мадэраваць анлайн-форумы ў класе, адказваць на простыя пытанні вучняў («Калі трэба здаць заданне?» ці нават удакладняць пункт лекцыі), каб настаўнік не быў засыпаны электроннымі лістамі. Да 2035 года наяўнасць сувыкладчыка са штучным інтэлектам у класе, пакуль настаўнік-чалавек засяроджваецца на кіраўніцтвах вышэйшага ўзроўню і матывацыйных аспектах, можа стаць стандартам.
-
Глабальны доступ да адукацыі: аўтаномныя рэпетытары са штучным інтэлектам могуць дапамагчы ў навучанні вучняў у раёнах з недахопам настаўнікаў. Планшэт з рэпетытарам са штучным інтэлектам можа служыць асноўным інструктарам для вучняў, якія ў адваротным выпадку маюць абмежаваную школьную адукацыю, ахопліваючы базавую грамату і матэматыку. Да 2035 года гэта можа стаць адным з найбольш эфектыўных спосабаў выкарыстання — штучны інтэлект можа пераадолець прабелы там, дзе няма настаўнікаў-людзей. Аднак забеспячэнне якасці і культурнай адпаведнасці адукацыі ў галіне штучнага інтэлекту ў розных кантэкстах будзе мець жыццёва важнае значэнне.
Ці заменіць штучны інтэлект настаўнікаў? Наўрад ці цалкам. Выкладанне — гэта больш, чым проста дастаўка кантэнту, гэта настаўніцтва, натхненне, сацыяльна-эмацыйная падтрымка. Гэтыя чалавечыя элементы цяжка паўтарыць штучнаму інтэлекту. Але штучны інтэлект можа стаць другім настаўнікам у класе ці нават першым настаўнікам у перадачы ведаў, пакінуўшы выкладчыкаў-людзей засяродзіцца на тым, што людзі ўмеюць лепш за ўсё: спачуваць, матываваць і развіваць крытычнае мысленне.
Ёсць праблемы, якія трэба вырашаць: забеспячэнне дакладнай інфармацыі з боку штучнага інтэлекту (адсутнасць адукацыйных галюцынацый, звязаных з ілжывымі фактамі), пазбяганне прадузятасці ў адукацыйным змесце, захаванне прыватнасці дадзеных студэнтаў і падтрыманне цікавасці студэнтаў (штучны інтэлект павінен матываваць, а не проста карэктаваць). Хутчэй за ўсё, мы ўбачым акрэдытацыю або сертыфікацыю адукацыйных сістэм са штучным інтэлектам — падобна зацвярджэнню падручнікаў — каб гарантаваць іх адпаведнасць стандартам.
Яшчэ адна праблема — празмерная залежнасць ад іншых: калі рэпетытар са штучным інтэлектам дае адказы занадта лёгка, вучні могуць не навучыцца настойлівасці або рашэнню праблем. Каб паменшыць гэта, будучыя рэпетытары са штучным інтэлектам могуць быць распрацаваны такім чынам, каб часам дазваляць вучням адчуваць цяжкасці (як гэта можа рабіць рэпетытар-чалавек) або заахвочваць іх вырашаць праблемы з дапамогай падказак, а не прапаноўваць рашэнні.
Да 2035 года клас можа змяніцца: кожны вучань атрымае прыладу, падключаную да штучнага інтэлекту, якая будзе кіраваць ім у сваім уласным тэмпе, а настаўнік арганізуе групавыя заняткі і дае чалавечы вопыт. Адукацыя можа стаць больш эфектыўнай і індывідуальнай. Абяцаецца, што кожны вучань атрымае неабходную дапамогу, калі яна яму патрэбна — сапраўдны вопыт «асабістага рэпетытара» ў вялікіх маштабах. Рызыка заключаецца ў страце чалавечага кантакту або няправільным выкарыстанні штучнага інтэлекту (напрыклад, калі студэнты падманваюць праз штучны інтэлект). Але ў цэлым, пры добрым кіраванні генератыўны штучны інтэлект можа дэмакратызаваць і палепшыць навучанне, будучы заўсёды даступным, дасведчаным спадарожнікам у адукацыйным падарожжы студэнта.
Генератыўны штучны інтэлект у лагістыцы і ланцужку паставак
Лагістыка — мастацтва і навука перамяшчэння тавараў і кіравання ланцужкамі паставак — можа здацца не традыцыйнай вобласцю для «генератыўнага» штучнага інтэлекту, але крэатыўнае рашэнне праблем і планаванне з'яўляюцца ключавымі ў гэтай галіне. Генератыўны штучны інтэлект можа дапамагчы, мадэлюючы сцэнарыі, аптымізуючы планы і нават кіруючы рабатызаванымі сістэмамі. Мэта ў лагістыцы — эфектыўнасць і эканомія выдаткаў, што добра суадносіцца з моцнымі бакамі штучнага інтэлекту ў аналізе дадзеных і прапанове рашэнняў. Дык наколькі аўтаномным можа быць штучны інтэлект у кіраванні ланцужкамі паставак і лагістычнымі аперацыямі?
Бягучыя магчымасці (2025): Аптымізацыя і спрашчэнне пад наглядам чалавека
Сёння штучны інтэлект (у тым ліку некаторыя генератыўныя падыходы) ужываецца ў лагістыцы ў першую чаргу як інструмент падтрымкі прыняцця рашэнняў :
-
Аптымізацыя маршруту: такія кампаніі, як UPS і FedEx, ужо выкарыстоўваюць алгарытмы штучнага інтэлекту для аптымізацыі маршрутаў дастаўкі, гарантуючы, што кіроўцы выбіраюць найбольш эфектыўны шлях. Традыцыйна гэта былі алгарытмы даследавання аперацый, але цяпер генератыўныя падыходы могуць дапамагчы вывучыць альтэрнатыўныя стратэгіі маршрутызацыі ў розных умовах (рух, надвор'е). У той час як штучны інтэлект прапануе маршруты, дыспетчары або менеджэры ўстанаўліваюць параметры (напрыклад, прыярытэты) і могуць змяніць іх пры неабходнасці.
-
Планаванне загрузкі і прасторы: для грузавікоў або транспартных кантэйнераў штучны інтэлект можа ствараць аптымальныя планы загрузкі (якая скрынка куды ідзе). Генератыўны штучны інтэлект можа ствараць некалькі канфігурацый упакоўкі, каб максымізаваць выкарыстанне прасторы, па сутнасці «ствараючы» рашэнні, з якіх людзі могуць выбіраць. Гэта было падкрэслена ў даследаванні, у якім адзначаецца, што грузавікі ў ЗША часта ездзяць пустымі на 30%, і лепшае планаванне — з дапамогай штучнага інтэлекту — можа паменшыць гэтыя страты ( Найлепшыя выпадкі выкарыстання генератыўнага штучнага інтэлекту ў лагістыцы ). Гэтыя планы загрузкі, згенераваныя штучным інтэлектам, накіраваны на скарачэнне выдаткаў на паліва і выкідаў, а на некаторых складах яны выконваюцца з мінімальнымі ручнымі зменамі.
-
Прагназаванне попыту і кіраванне запасамі: Мадэлі штучнага інтэлекту могуць прагназаваць попыт на прадукцыю і ствараць планы папаўнення запасаў. Генератыўная мадэль можа мадэляваць розныя сцэнарыі попыту (напрыклад, штучны інтэлект «уяўляе» сабе рэзкі рост попыту з-за набліжэння свята) і адпаведна планаваць запасы. Гэта дапамагае кіраўнікам ланцужкоў паставак падрыхтавацца. У цяперашні час штучны інтэлект дае прагнозы і рэкамендацыі, але людзі звычайна прымаюць канчатковае рашэнне адносна ўзроўню вытворчасці або заказаў.
-
Ацэнка рызык: Глабальны ланцужок паставак сутыкаецца са збоямі (стыхійныя бедствы, затрымкі ў партах, палітычныя праблемы). Сістэмы штучнага інтэлекту цяпер праглядаюць навіны і дадзеныя, каб выявіць рызыкі на гарызонце. Напрыклад, адна лагістычная фірма выкарыстоўвае генератыўны штучны інтэлект для сканавання Інтэрнэту і пазначэння рызыкоўных транспартных калідораў (раёнаў, якія могуць узнікнуць праблемы, напрыклад, з-за набліжэння ўрагану або беспарадкаў) ( Найлепшыя выпадкі выкарыстання генератыўнага штучнага інтэлекту ў лагістыцы ). З дапамогай гэтай інфармацыі планіроўшчыкі могуць аўтаномна перанакіроўваць грузы ў абыход праблемных месцаў. У некаторых выпадках штучны інтэлект можа аўтаматычна рэкамендаваць змены маршруту або спосабу транспарту, якія потым ухваляюцца людзьмі.
-
Аўтаматызацыя складоў: Многія склады напаўаўтаматызаваныя, і для збору і ўпакоўкі выкарыстоўваюцца робаты. Генератыўны штучны інтэлект можа дынамічна размеркаваць задачы паміж робатамі і людзьмі для аптымальнага патоку. Напрыклад, штучны інтэлект можа ствараць чаргу задач для робатаў-зборшчыкаў кожную раніцу на аснове заказаў. Гэта часта цалкам аўтаномна ў выкананні, прычым менеджэры проста кантралююць ключавыя паказчыкі эфектыўнасці (KPI) — калі колькасць заказаў нечакана рэзка ўзрастае, штучны інтэлект самастойна карэктуе аперацыі.
-
Кіраванне аўтапаркам: штучны інтэлект дапамагае ў планаванні тэхнічнага абслугоўвання транспартных сродкаў, аналізуючы заканамернасці і ствараючы аптымальныя графікі тэхнічнага абслугоўвання, якія мінімізуюць час прастою. Ён таксама можа групаваць адгрузкі, каб скараціць колькасць паездак. Гэтыя рашэнні могуць прымацца праграмным забеспячэннем штучнага інтэлекту аўтаматычна, пакуль яно адпавядае патрабаванням абслугоўвання.
У цэлым, па стане на 2025 год, людзі ставяць перад сабой мэты (напрыклад, «мінімізаваць выдаткі, але забяспечыць дастаўку на працягу 2 дзён»), а штучны інтэлект распрацоўвае рашэнні або графікі для дасягнення гэтай мэты. Сістэмы могуць працаваць штодня без умяшання, пакуль не здарыцца нешта незвычайнае. Шмат лагістыкі прадугледжвае паўтаральныя рашэнні (калі павінна адправіцца гэтая партыя? з якога склада выканаць гэтую замову?), якія штучны інтэлект можа навучыцца прымаць паслядоўна. Кампаніі паступова давяраюць штучнаму інтэлекту апрацоўку гэтых мікрарашэнняў і папярэджваюць кіраўнікоў толькі аб узнікненні выключэнняў.
Перспектывы на 2030-2035 гады: беспілотныя ланцужкі паставак
У наступным дзесяцігоддзі мы можам уявіць сабе значна больш аўтаномную каардынацыю ў лагістыцы, якая будзе кіравацца штучным інтэлектам:
-
Аўтаномныя транспартныя сродкі і дроны: беспілотныя грузавікі і беспілотнікі дастаўкі, хоць і з'яўляюцца больш шырокай тэмай штучнага інтэлекту/робататэхнікі, непасрэдна ўплываюць на лагістыку. Да 2030 года, калі будуць пераадолены праблемы з рэгуляваннем і тэхнічнымі пытаннямі, у нас можа быць штучны інтэлект, які рэгулярна кіруе грузавікамі на аўтамагістралях, або беспілотнікі, якія займаюцца дастаўкай на апошнюю мілю ў гарадах. Гэтыя штучныя інтэлекты будуць прымаць рашэнні ў рэжыме рэальнага часу (змена маршруту, пазбяганне перашкод) без кіроўцаў-людзей. Генератыўны аспект заключаецца ў тым, як гэтыя штучныя інтэлекты транспартных сродкаў вучацца на велізарных дадзеных і мадэляваннях, эфектыўна «трэніруючыся» на незлічоных сцэнарыях. Цалкам аўтаномны аўтапарк можа працаваць 24/7, прычым людзі будуць кантраляваць сітуацыю толькі дыстанцыйна. Гэта выключае велізарную колькасць чалавечага фактару (кіроўцаў) з лагістычных аперацый, значна павялічваючы аўтаномію.
-
Самааднаўляльныя ланцужкі паставак: генератыўны штучны інтэлект, верагодна, будзе выкарыстоўвацца для пастаяннага мадэлявання сцэнарыяў ланцужкоў паставак і падрыхтоўкі планаў на выпадак надзвычайных сітуацый. Да 2035 года штучны інтэлект зможа аўтаматычна вызначаць, калі фабрыка пастаўшчыка спынілася (праз навіны або стужкі дадзеных), і неадкладна пераключаць пастаўкі на альтэрнатыўных пастаўшчыкоў, якіх ён ужо праверыў у мадэляванні. Гэта азначае, што ланцужок паставак «аднаўляецца» пасля збояў, а ініцыятыву бярэ на сябе штучны інтэлект. Менеджэры-людзі будуць праінфармаваныя аб тым, што зрабіў штучны інтэлект, а не тыя, хто ініцыяваў абыходны шлях.
-
Аптымізацыя запасаў ад пачатку да канца: штучны інтэлект мог бы аўтаномна кіраваць запасамі па ўсёй сетцы складоў і крам. Ён бы вырашаў, калі і куды перамяшчаць тавары (магчыма, выкарыстоўваючы для гэтага робатаў або аўтаматызаваныя транспартныя сродкі), падтрымліваючы дастаткова запасаў у кожным месцы. Штучны інтэлект, па сутнасці, кіруе вежай кіравання ланцужком паставак: бачыць усе патокі і ўносіць карэктывы ў рэжыме рэальнага часу. Да 2035 года ідэя «самакіраванага» ланцужка паставак можа азначаць, што сістэма штодня вызначае найлепшы план размеркавання, заказвае прадукцыю, плануе працу завода і самастойна арганізуе транспарт. Людзі б кантралявалі агульную стратэгію і апрацоўвалі б выключэнні, якія выходзяць за рамкі цяперашняга разумення штучнага інтэлекту.
-
Генератыўны дызайн у лагістыцы: Мы можам бачыць, як штучны інтэлект распрацоўвае новыя сеткі ланцужкоў паставак. Дапусцім, кампанія пашыраецца ў новы рэгіён; штучны інтэлект можа генераваць аптымальныя месцы складоў, транспартныя сувязі і палітыку кіравання запасамі для гэтага рэгіёна, маючы дадзеныя — тое, чым сёння займаюцца кансультанты і аналітыкі. Да 2030 года кампаніі могуць спадзявацца на рэкамендацыі штучнага інтэлекту пры выбары дызайну ланцужкоў паставак, давяраючы яму хутчэйшае ўзважванне фактараў і, магчыма, пошук крэатыўных рашэнняў (напрыклад, невідавочныя размеркавальныя цэнтры), якія людзі прапускаюць.
-
Інтэграцыя з вытворчасцю (Прамысловасць 4.0): Лагістыка не існуе асобна; яна звязана з вытворчасцю. Фабрыкі будучыні могуць мець генератыўны штучны інтэлект, які плануе вытворчыя рэйсы, заказвае сыравіну дакладна ў тэрмін, а затым дае інструкцыі лагістычнай сетцы неадкладна адгружаць прадукцыю. Гэты інтэграваны штучны інтэлект можа азначаць менш планавання чалавекам у цэлым — бесперабойны ланцужок ад вытворчасці да пастаўкі, кіраваны алгарытмамі, аптымізуючымі кошт, хуткасць і ўстойлівасць. Ужо да 2025 года высокаэфектыўныя ланцужкі паставак будуць кіравацца дадзенымі; да 2035 года яны могуць быць у значнай ступені кіраваныя штучным інтэлектам.
-
Дынамічнае абслугоўванне кліентаў у лагістыцы: абапіраючыся на штучны інтэлект для абслугоўвання кліентаў, штучны інтэлект у ланцужку паставак можа непасрэдна ўзаемадзейнічаць з кліентамі або заказчыкамі. Напрыклад, калі буйны кліент хоча змяніць свой аптовы заказ у апошнюю хвіліну, агент штучнага інтэлекту можа абмеркаваць магчымыя альтэрнатывы (напрыклад, «Мы можам даставіць палову зараз, палову на наступным тыдні з-за абмежаванняў»), не чакаючы кіраўніка-чалавека. Гэта прадугледжвае разуменне генератыўным штучным інтэлектам абодвух бакоў (патрэбы кліента супраць аперацыйных магчымасцей) і прыняцце рашэнняў, якія забяспечваюць бесперабойную працу, адначасова задавальняючы кліентаў.
Чаканай перавагай з'яўляецца больш эфектыўная, устойлівая і адаптыўная лагістычная сістэма. Кампаніі прадбачаць велізарную эканомію — McKinsey падлічыла, што аптымізацыя ланцужкоў паставак на аснове штучнага інтэлекту можа значна скараціць выдаткі і палепшыць узровень абслугоўвання, патэнцыйна дадаўшы трыльёны каштоўнасці ва ўсіх галінах ( Стан штучнага інтэлекту ў 2023 годзе: год прарыву генератыўнага штучнага інтэлекту | McKinsey ).
Аднак перадача большага кантролю штучнаму інтэлекту таксама нясе рызыкі, такія як каскадныя памылкі, калі логіка штучнага інтэлекту недасканалая (напрыклад, сумнавядомы сцэнар ланцужка паставак штучнага інтэлекту, які выпадкова прыводзіць да таго, што кампанія не мае тавараў на складзе з-за памылкі мадэлявання). Такія меры бяспекі, як «чалавек у працэсе прыняцця важных рашэнняў» або, прынамсі, панэлі кіравання, якія дазваляюць хутка змяніць рашэнні чалавекам, верагодна, захаваюцца да 2035 года. З часам, па меры таго, як рашэнні штучнага інтэлекту будуць пацверджаны, людзі будуць больш камфортна адступаць.
Цікава, што, аптымізуючы эфектыўнасць, штучны інтэлект часам можа рабіць выбар, які супярэчыць перавагам чалавека або традыцыйным практыкам. Напрыклад, простая аптымізацыя можа прывесці да вельмі абмежаваных запасаў, што эфектыўна, але можа быць рызыкоўна. Спецыялістам па ланцужках паставак у 2030 годзе, магчыма, прыйдзецца скарэктаваць сваю інтуіцыю, бо штучны інтэлект, апрацоўваючы велізарныя аб'ёмы дадзеных, можа прадэманстраваць, што яго незвычайная стратэгія насамрэч працуе лепш.
Нарэшце, мы павінны ўлічваць, што фізічныя абмежаванні (інфраструктура, хуткасць фізічных працэсаў) абмяжоўваюць хуткасць зменаў у лагістыцы, таму рэвалюцыя тут тычыцца больш разумнага планавання і выкарыстання актываў, чым цалкам новай фізічнай рэальнасці. Але нават у межах гэтых межаў крэатыўныя рашэнні генератыўнага штучнага інтэлекту і нястомная аптымізацыя могуць значна палепшыць перамяшчэнне тавараў па свеце з мінімальным ручным планаваннем.
Карацей кажучы, да 2035 года лагістыка можа працаваць падобна добра адладжанай аўтаматызаванай машыне: тавары будуць эфектыўна рухацца, маршруты будуць адаптавацца ў рэжыме рэальнага часу да збояў, склады будуць кіраваць сабой з дапамогай робатаў, а ўся сістэма будзе пастаянна вучыцца і ўдасканальвацца на аснове дадзеных — усё гэта будзе кіруцца генератыўным штучным інтэлектам, які будзе выступаць у якасці мозгу аперацыі.
Генератыўны штучны інтэлект у фінансах і бізнэсе
Фінансавая галіна актыўна працуе з інфармацыяй — справаздачамі, аналізам, камунікацыяй з кліентамі — што робіць яе ўрадлівай глебай для генератыўнага штучнага інтэлекту. Ад банкаўскай справы да кіравання інвестыцыямі і страхавання арганізацыі вывучаюць штучны інтэлект для аўтаматызацыі і атрымання аналітычных дадзеных. Пытанне ў тым, якія фінансавыя задачы можа надзейна выконваць штучны інтэлект без кантролю чалавека, улічваючы важнасць дакладнасці і даверу ў гэтай галіне?
Бягучыя магчымасці (2025): Аўтаматызаваныя справаздачы і падтрымка прыняцця рашэнняў
На сённяшні дзень генератыўны штучны інтэлект уносіць свой уклад у фінансы некалькімі спосабамі, часта пад наглядам чалавека:
-
Генерацыя справаздач: банкі і фінансавыя фірмы ствараюць мноства справаздач — зводкі аб прыбытках, каментарыі да рынку, аналіз партфеля і г.д. Для іх падрыхтоўкі ўжо выкарыстоўваецца штучны інтэлект. Напрыклад, Bloomberg распрацаваў BloombergGPT , вялікую моўную мадэль, навучаную на фінансавых дадзеных, каб дапамагчы карыстальнікам тэрміналаў у такіх задачах, як класіфікацыя навін і пытанні і адказы ( генератыўны штучны інтэлект прыходзіць у фінансы ). Хоць яго асноўнае прымяненне — дапамагаць людзям знаходзіць інфармацыю, гэта сведчыць аб узрастаючай ролі штучнага інтэлекту. Automated Insights (кампанія, з якой супрацоўнічала AP) таксама стварала артыкулы пра фінансы. Многія інвестыцыйныя інфармацыйныя бюлетэні выкарыстоўваюць штучны інтэлект для падсумавання штодзённых рынкавых рухаў або эканамічных паказчыкаў. Як правіла, людзі праглядаюць іх перад адпраўкай кліентам, але гэта хуткае рэдагаванне, а не напісанне з нуля.
-
Зносіны з кліентамі: у рознічным банкінгу чат-боты са штучным інтэлектам апрацоўваюць запыты кліентаў адносна балансу рахункаў, транзакцый або інфармацыі аб прадуктах (зліваючы іх з сферай абслугоўвання кліентаў). Акрамя таго, штучны інтэлект можа ствараць персаналізаваныя лісты або падказкі з фінансавымі кансультацыямі. Напрыклад, штучны інтэлект можа вызначыць, што кліент можа зэканоміць на камісіях, і аўтаматычна падрыхтаваць паведамленне з прапановай перайсці на іншы тып рахунку, якое затым будзе адпраўлена з мінімальным умяшаннем чалавека. Гэты від персаналізаванай камунікацыі ў вялікіх маштабах з'яўляецца сучасным выкарыстаннем штучнага інтэлекту ў фінансах.
-
Выяўленне махлярства і абвесткі: генератыўны штучны інтэлект можа дапамагчы ў стварэнні апісанняў або тлумачэнняў анамалій, выяўленых сістэмамі махлярства. Напрыклад, калі падазроная актыўнасць пазначана, штучны інтэлект можа стварыць тлумачальнае паведамленне для кліента («Мы заўважылі ўваход з новай прылады…») або справаздачу для аналітыкаў. Выяўленне аўтаматызавана (з выкарыстаннем выяўлення анамалій з дапамогай штучнага інтэлекту/машыннага навучання), і камунікацыя ўсё больш аўтаматызавана, хоць канчатковыя дзеянні (блакіроўка ўліковага запісу) часта падвяргаюцца некаторай праверцы чалавекам.
-
Фінансавыя кансультацыі (абмежавана): некаторыя роба-кансультанты (аўтаматызаваныя інвестыцыйныя платформы) выкарыстоўваюць алгарытмы (не абавязкова генератыўны штучны інтэлект) для кіравання партфелямі без удзелу людзей-кансультантаў. Генератыўны штучны інтэлект уступае ў гульню, напрыклад, ствараючы каментарыі аб тым, чаму былі зроблены пэўныя здзелкі, або рэзюмэ эфектыўнасці партфеля, адаптаванае да кліента. Аднак чыстая фінансавая кансультацыя (напрыклад, складанае фінансавае планаванне) усё яшчэ ў асноўным заснавана на чалавечых або правілах алгарытмічных метадах; генератыўныя кансультацыі ў свабоднай форме без кантролю рызыкоўныя з-за адказнасці, калі яны памылковыя.
-
Ацэнка рызык і андеррайтынг: Страхавыя кампаніі тэстуюць штучны інтэлект для аўтаматычнага напісання справаздач аб ацэнцы рызык або нават чарнавікоў полісаў. Напрыклад, маючы дадзеныя аб нерухомасці, штучны інтэлект можа стварыць праект страхавога поліса або справаздачу андеррайтэра з апісаннем фактараў рызыкі. У цяперашні час людзі правяраюць гэтыя вынікі, таму што любая памылка ў кантракце можа дорага абысціся.
-
Аналіз дадзеных і аналітыка: штучны інтэлект можа праглядаць фінансавую справаздачнасць або навіны і ствараць рэзюмэ. Аналітыкі выкарыстоўваюць інструменты, якія могуць імгненна звесці да ключавых пунктаў 100-старонкавую гадавую справаздачу або выняць асноўныя высновы з стэнаграмы канферэнцыі аб прыбытках. Гэтыя рэзюмэ эканомяць час і могуць быць выкарыстаны непасрэдна пры прыняцці рашэнняў або перададзены далей, але разважлівыя аналітыкі пераправяраюць важныя дэталі.
Па сутнасці, сучасны штучны інтэлект у фінансах выступае ў якасці нястомнага аналітыка/пісьменніка , ствараючы кантэнт, які людзі дапрацоўваюць. Цалкам аўтаномнае выкарыстанне ў асноўным у добра акрэсленых галінах, такіх як навіны, заснаваныя на дадзеных (суб'ектыўнае меркаванне не патрабуецца) або адказы службы падтрымкі кліентаў. Непасрэднае даверанне штучнаму інтэлекту рашэнняў адносна грошай (напрыклад, перавод сродкаў, выкананне здзелак па-за межамі загадзя зададзеных алгарытмаў) сустракаецца рэдка з-за высокіх ставак і кантролю рэгулятараў.
Перспектывы на 2030-2035 гады: аналітыкі штучнага інтэлекту і аўтаномныя фінансавыя аперацыі
Зазіраючы ў будучыню, да 2035 года генератыўны штучны інтэлект можа быць глыбока ўбудаваны ў фінансавыя аперацыі, патэнцыйна выконваючы многія задачы аўтаномна:
-
Фінансавыя аналітыкі на базе штучнага інтэлекту: Мы можам убачыць сістэмы штучнага інтэлекту, якія змогуць аналізаваць кампаніі і рынкі і ствараць рэкамендацыі або справаздачы на ўзроўні аналітыка па даследаванні чалавечага капіталу. Да 2030 года штучны інтэлект зможа самастойна чытаць усе фінансавыя справаздачы кампаніі, параўноўваць іх з галіновымі дадзенымі і ствараць справаздачу аб інвестыцыйных рэкамендацыях («Купля/Прадача» з абгрунтаваннем). Некаторыя хедж-фонды ўжо выкарыстоўваюць штучны інтэлект для генерацыі гандлёвых сігналаў; да 2030-х гадоў даследчыя справаздачы на базе штучнага інтэлекту могуць стаць распаўсюджанай з'явай. Кіраўнікі партфеляў, якія з'яўляюцца людзьмі, могуць пачаць давяраць аналізу, згенераванаму штучным інтэлектам, як аднаму з іншых уваходных дадзеных. Існуе нават патэнцыял для штучнага інтэлекту аўтаномна кіраваць партфелямі: пастаянна кантраляваць і перабалансаваць інвестыцыі ў адпаведнасці з загадзя вызначанай стратэгіяй. Фактычна, алгарытмічны гандаль ужо ў значнай ступені аўтаматызаваны — генератыўны штучны інтэлект можа зрабіць стратэгіі больш адаптыўнымі, самастойна генеруючы і тэстуючы новыя гандлёвыя мадэлі.
-
Аўтаматызаванае фінансавае планаванне: Кансультанты на базе штучнага інтэлекту, якія працуюць з кліентамі, змогуць выконваць руціннае фінансавае планаванне для фізічных асоб. Да 2030 года вы зможаце паведаміць штучнаму інтэлекту свае мэты (купля дома, зберажэнні на навучанне ў каледжы), і ён зможа стварыць поўны фінансавы план (бюджэт, размеркаванне інвестыцый, прапановы па страхаванні), адаптаваны да вашых патрэб. Спачатку яго можа прагледзець фінансавы планіроўшчык-чалавек, але па меры росту даверу такія парады могуць давацца непасрэдна спажыўцам з адпаведнымі агаворкамі. Галоўнае будзе забяспечыць адпаведнасць парадаў штучнага інтэлекту правілам і інтарэсам кліента. Калі гэтае пытанне будзе вырашана, штучны інтэлект зможа зрабіць базавыя фінансавыя кансультацыі значна больш даступнымі па нізкай цане.
-
Аўтаматызацыя бэк-офіса: генератыўны штучны інтэлект можа аўтаномна апрацоўваць многія дакументы бэк-офіса — заяўкі на крэдыты, справаздачы аб адпаведнасці, рэзюмэ аўдытаў. Напрыклад, штучны інтэлект можа ўлічваць усе дадзеныя аб транзакцыях і ствараць аўдытарскую справаздачу, у якой пазначаюцца любыя праблемы. Аўдытары ў 2035 годзе могуць марнаваць больш часу на праверку выключэнняў, пазначаных штучным інтэлектам, замест таго, каб самастойна ўсё праглядаць. Аналагічна, для адпаведнасці патрабаванням штучны інтэлект можа ствараць справаздачы аб падазронай дзейнасці (SAR) для рэгулятараў без неабходнасці, каб аналітык пісаў іх з нуля. Аўтаномная генерацыя гэтых руцінных дакументаў з наглядам чалавека на аснове выключэнняў можа стаць стандартам.
-
Страхавыя прэтэнзіі і андеррайтынг: штучны інтэлект можа апрацоўваць страхавую прэтэнзію (з фотадоказамі і г.д.), вызначаць пакрыццё і аўтаматычна генераваць ліст аб рашэнні выплаты. Мы можам дасягнуць моманту, калі простыя прэтэнзіі (напрыклад, аўтамабільныя аварыі з выразнымі дадзенымі) будуць цалкам вырашацца штучным інтэлектам на працягу некалькіх хвілін пасля падачы. Андеррайтынг новых полісаў можа быць падобным: штучны інтэлект ацэньвае рызыку і фармуе ўмовы поліса. Да 2035 года, магчыма, толькі складаныя або памежныя выпадкі будуць перадавацца страхавальнікам-людзям.
-
Махлярства і бяспека: Штучны інтэлект, верагодна, будзе гуляць яшчэ больш важную ролю ў выяўленні і рэагаванні на махлярства або кіберпагрозы ў фінансах. Аўтаномныя агенты штучнага інтэлекту могуць кантраляваць транзакцыі ў рэжыме рэальнага часу і неадкладна прымаць меры (блакіраваць рахункі, замарожваць транзакцыі) пры выкананні пэўных крытэрыяў, а затым ствараць абгрунтаванне. Хуткасць тут мае вырашальнае значэнне, таму жадана мінімальнае ўдзел чалавека. Генератыўная частка можа заключацца ў зразумелым паведамленні гэтых дзеянняў кліентам або рэгулятарам.
-
Падтрымка кіраўніцтва: Уявіце сабе «кіраўніка апарата» са штучным інтэлектам, які можа імгненна ствараць бізнес-справаздачы для кіраўнікоў. Спытайце: «Як папрацаваў наш еўрапейскі аддзел у гэтым квартале і якія былі асноўныя фактары ў параўнанні з мінулым годам?», і штучны інтэлект створыць кароткую справаздачу з дакладнымі дыяграмамі, заснаванымі на дадзеных. Гэты тып дынамічнай, аўтаномнай справаздачнасці і аналізу можа стаць такім жа простым, як размова. Да 2030 года запыты бізнес-аналітыкі да штучнага інтэлекту і давер да яго правільных адказаў могуць у значнай ступені замяніць статычныя справаздачы і, магчыма, нават некаторыя ролі аналітыкаў.
Адзін цікавы прагноз: да 2030-х гадоў большая частка фінансавага кантэнту (навін, справаздач і г.д.) можа быць створана штучным інтэлектам . Такія выданні, як Dow Jones і Reuters, ужо выкарыстоўваюць аўтаматызацыю для некаторых навін. Калі гэтая тэндэнцыя захаваецца, і ўлічваючы рэзкі рост фінансавых дадзеных, штучны інтэлект можа адказваць за фільтрацыю і перадачу большай часткі гэтага кантэнту.
Аднак давер і праверка будуць мець цэнтральнае значэнне. Фінансавая галіна строга рэгулюецца, і любы штучны інтэлект, які працуе аўтаномна, павінен будзе адпавядаць строгім стандартам:
-
Забяспечце адсутнасць галюцынацый (нельга дапусціць, каб аналітык штучнага інтэлекту вынайшаў фінансавую метрыку, якая не адпавядае рэчаіснасці — гэта можа ўвесці рынкі ў зман).
-
Пазбяганне прадузятасці або незаконнай практыкі (напрыклад, ненаўмыснага ўнясення змяненняў у крэдытныя рашэнні з-за прадузятых дадзеных навучання).
-
Аўдытарнасць: рэгулятары, хутчэй за ўсё, запатрабуюць, каб рашэнні штучнага інтэлекту былі тлумачальнымі. Калі штучны інтэлект адхіляе крэдыт або прымае гандлёвае рашэнне, павінна быць абгрунтаванне, якое можна праверыць. Генератыўныя мадэлі могуць быць нечым накшталт чорнай скрыні, таму чакайце распрацоўкі тлумачальных метадаў штучнага інтэлекту , каб зрабіць іх рашэнні празрыстымі.
Наступныя 10 гадоў, верагодна, будуць уключаць цеснае супрацоўніцтва паміж штучным інтэлектам і фінансавымі спецыялістамі, паступова зрушваючы мяжу аўтаноміі па меры росту даверу. Першыя поспехі будуць у аўтаматызацыі з нізкім узроўнем рызыкі (напрыклад, стварэнне справаздач). Складанейшымі будуць асноўныя рашэнні, такія як крэдытныя рашэнні або выбар інвестыцый, але нават у гэтым выпадку, па меры назапашвання вопыту штучнага інтэлекту, кампаніі могуць даць яму большую аўтаномію. Напрыклад, магчыма, фонд штучнага інтэлекту будзе кіравацца чалавекам-наглядчыкам, які ўмешваецца толькі ў выпадку адхіленняў ад прадукцыйнасці або калі штучны інтэлект сігналізуе пра нявызначанасць.
З эканамічнага пункту гледжання, паводле ацэнак McKinsey, штучны інтэлект (асабліва штучны інтэлект пакалення) можа штогод павялічваць кошт банкаўскай сферы на 200-340 мільярдаў долараў, а таксама аказаць падобны значны ўплыў на рынкі страхавання і капіталу ( Стан штучнага інтэлекту ў 2023 годзе: год прарыву генератыўнага штучнага інтэлекту | McKinsey ) ( Якая будучыня генератыўнага штучнага інтэлекту? | McKinsey ). Гэта дасягаецца за кошт павышэння эфектыўнасці і паляпшэння вынікаў прыняцця рашэнняў. Каб атрымаць гэтую каштоўнасць, вялікая частка руціннага фінансавага аналізу і камунікацыі, верагодна, будзе перададзена сістэмам штучнага інтэлекту.
Карацей кажучы, да 2035 года генератыўны штучны інтэлект можа стаць падобным да арміі малодшых аналітыкаў, кансультантаў і клеркаў, якія працуюць у фінансавым сектары, выконваючы большую частку цяжкай працы і некаторыя складаныя аналізы аўтаномна. Людзі будуць па-ранейшаму ставіць мэты і займацца стратэгіяй высокага ўзроўню, адносінамі з кліентамі і кантролем. Фінансавы свет, будучы асцярожным, будзе паступова пашыраць аўтаномію, але відавочны кірунак таго, што ўсё больш і больш апрацоўкі інфармацыі і нават рэкамендацый па прыняцці рашэнняў будуць паступаць ад штучнага інтэлекту. У ідэале гэта прывядзе да больш хуткага абслугоўвання (імгненныя пазыкі, кругласутачныя кансультацыі), зніжэння выдаткаў і патэнцыйна большай аб'ектыўнасці (рашэнні, заснаваныя на шаблонах дадзеных). Але падтрыманне даверу будзе мець вырашальнае значэнне; адна гучная памылка штучнага інтэлекту ў фінансах можа прычыніць велізарную шкоду (уявіце сабе імгненны крах, справакаваны штучным інтэлектам, або памылкова адмоўленую выгаду тысячам людзей). Такім чынам, ахоўныя панэлі і праверкі з боку чалавека, верагодна, захаваюцца, асабліва для дзеянняў, звязаных са спажыўцамі, нават калі працэсы бэк-офіса стануць вельмі аўтаномнымі.
Праблемы і этычныя меркаванні
Ва ўсіх гэтых галінах, па меры таго, як генератыўны штучны інтэлект бярэ на сябе больш аўтаномных абавязкаў, узнікае шэраг агульных праблем і этычных пытанняў. Забеспячэнне надзейнасці і карыснасці штучнага інтэлекту як аўтаномнага агента — гэта не проста тэхнічная задача, а сацыяльная. Тут мы акрэсліваем ключавыя праблемы і тое, як яны вырашаюцца (ці трэба будзе вырашаць):
Надзейнасць і дакладнасць
Праблема галюцынацый: мадэлі генератыўнага штучнага інтэлекту могуць ствараць няправільныя або цалкам сфабрыкаваныя вынікі, якія выглядаюць упэўнена. Гэта асабліва небяспечна, калі няма чалавека, які б мог выявіць памылкі. Чат-бот можа даць кліенту няправільныя інструкцыі, або справаздача, напісаная штучным інтэлектам, можа ўтрымліваць выдуманую статыстыку. Па стане на 2025 год, недакладнасць прызнаецца арганізацыямі галоўнай рызыкай генератыўнага штучнага інтэлекту ( Стан штучнага інтэлекту ў 2023 годзе: год прарыву генератыўнага штучнага інтэлекту | McKinsey ) ( Стан штучнага інтэлекту: глабальнае апытанне | McKinsey ). У будучыні для мінімізацыі галюцынацый выкарыстоўваюцца такія метады, як праверка фактаў у базах дадзеных, паляпшэнне архітэктуры мадэлі і навучанне з падмацаваннем з зваротнай сувяззю. Аўтаномныя сістэмы штучнага інтэлекту, верагодна, запатрабуюць дбайнага тэсціравання і, магчыма, фармальнай праверкі для крытычна важных задач (напрыклад, генерацыя кода, які можа прывесці да памылак/недахопаў бяспекі, калі ён няправільны).
Паслядоўнасць: сістэмы штучнага інтэлекту павінны надзейна працаваць з цягам часу і ў розных сцэнарыях. Напрыклад, штучны інтэлект можа добра спраўляцца са стандартнымі пытаннямі, але мець праблемы ў памежных выпадках. Забеспячэнне паслядоўнай працы запатрабуе шырокіх навучальных дадзеных, якія ахопліваюць розныя сітуацыі, і пастаяннага маніторынгу. Многія арганізацыі плануюць выкарыстоўваць гібрыдныя падыходы — штучны інтэлект працуе, але выпадковыя выбаркі правяраюцца людзьмі — каб ацаніць бягучыя паказчыкі дакладнасці.
Бяспека ад збояў: калі штучны інтэлект працуе аўтаномна, вельмі важна, каб ён распазнаваў сваю ўласную нявызначанасць. Сістэма павінна быць распрацавана так, каб «ведаць, калі яна не ведае». Напрыклад, калі лекар са штучным інтэлектам не ўпэўнены ў дыягназе, ён павінен пазначыць яго для праверкі чалавекам, а не даваць выпадковай здагадкі. Убудаванне ацэнкі нявызначанасці ў вынікі штучнага інтэлекту (і наяўнасць парогаў для аўтаматычнай перадачы чалавекам) з'яўляецца актыўнай сферай распрацоўкі.
Прадузятасць і справядлівасць
Генератыўны штучны інтэлект вучыцца на гістарычных дадзеных, якія могуць утрымліваць прадузятасці (расавыя, гендэрныя і г.д.). Аўтаномны штучны інтэлект можа падтрымліваць або нават узмацняць гэтыя прадузятасці:
-
Пры прыёме на працу або паступленні асоба, якая прымае рашэнні ў галіне штучнага інтэлекту, можа несправядліва дыскрымінаваць, калі яе навучальныя дадзеныя будуць прадузятымі.
-
У сферы абслугоўвання кліентаў штучны інтэлект можа па-рознаму рэагаваць на карыстальнікаў у залежнасці ад дыялекту або іншых фактараў, калі не правесці ўважлівую праверку.
-
У творчых сферах штучны інтэлект можа недастаткова прадстаўляць пэўныя культуры ці стылі, калі навучальны набор быў незбалансаваны.
Вырашэнне гэтай праблемы патрабуе стараннага падбору набораў дадзеных, тэставання на прадузятасць і, магчыма, алгарытмічных карэкціровак для забеспячэння справядлівасці. Празрыстасць мае ключавое значэнне: кампаніі павінны будуць раскрываць крытэрыі прыняцця рашэнняў па штучным інтэлекце, асабліва калі аўтаномны штучны інтэлект уплывае на чыесьці магчымасці або правы (напрыклад, атрыманне крэдыту або працы). Рэгулятары ўжо звяртаюць на гэта ўвагу; напрыклад, Закон ЕС аб штучным інтэлекце (які распрацоўваецца з сярэдзіны 2020-х гадоў), верагодна, запатрабуе ацэнкі прадузятасці для сістэм штучнага інтэлекту з высокай рызыкай.
Падсправаздачнасць і юрыдычная адказнасць
Калі сістэма штучнага інтэлекту, якая працуе аўтаномна, прычыняе шкоду або робіць памылку, хто нясе адказнасць? Прававыя базы даганяюць адставанне:
-
Кампаніі, якія ўкараняюць штучны інтэлект, хутчэй за ўсё, будуць несці адказнасць, падобную да адказнасці за дзеянні супрацоўніка. Напрыклад, калі штучны інтэлект дае дрэнную фінансавую параду, якая прыводзіць да страт, фірма, магчыма, будзе вымушана кампенсаваць кліенту страты.
-
Ідуць спрэчкі наконт «асабістасці» штучнага інтэлекту або таго, ці можа перадавы штучны інтэлект несці частковую адказнасць, але гэта пакуль больш тэарэтычна. На практыцы віна будзе ўскладзена на распрацоўшчыкаў або аператараў.
-
Могуць з'явіцца новыя страхавыя прадукты на выпадак збояў штучнага інтэлекту. Калі беспілотны грузавік стане прычынай аварыі, страхоўка вытворцы можа пакрыць яе, аналагічна адказнасці за прадукцыю.
-
Дакументаванне і рэгістрацыя рашэнняў штучнага інтэлекту будуць важнымі для аналізу пасля яго. Калі нешта пойдзе не так, нам трэба будзе правесці аўдыт рашэнняў штучнага інтэлекту, каб зрабіць высновы і прызначыць адказных. Рэгулятары могуць абавязаць весці рэгістрацыю аўтаномных дзеянняў штучнага інтэлекту менавіта па гэтай прычыне.
Празрыстасць і тлумачальнасць
Аўтаномны штучны інтэлект у ідэале павінен мець магчымасць тлумачыць свае думкі ў зразумелых для чалавека тэрмінах, асабліва ў важных галінах (фінансы, ахова здароўя, сістэма правасуддзя). Тлумачальны штучны інтэлект — гэта галіна, якая імкнецца адкрыць чорную скрыню:
-
Калі штучны інтэлект адмовіў у выдачы пазыкі, правілы (як у ЗША, ECOA) могуць патрабаваць указання заяўніку прычыны. Таму штучны інтэлект павінен вывесці фактары (напрыклад, «высокае суадносіны запазычанасці да даходу») у якасці тлумачэння.
-
Карыстальнікі, якія ўзаемадзейнічаюць са штучным інтэлектам (напрыклад, студэнты з рэпетытарам са штучным інтэлектам або пацыенты з дадаткам для здароўя на базе штучнага інтэлекту), павінны ведаць, як штучны інтэлект атрымлівае рэкамендацыі. Робяцца намаганні, каб зрабіць разважанні штучнага інтэлекту больш прасочваемымі, альбо шляхам спрашчэння мадэляў, альбо шляхам стварэння паралельных тлумачальных мадэляў.
-
Празрыстасць таксама азначае, што карыстальнікі павінны ведаць, калі яны маюць справу са штучным інтэлектам, а калі з чалавекам. Этычныя рэкамендацыі (і, верагодна, некаторыя законы) схіляюцца да патрабавання раскрыцця інфармацыі, калі кліент размаўляе з ботам. Гэта прадухіляе падман і дазваляе карыстальнікам атрымаць згоду. Некаторыя кампаніі цяпер відавочна пазначаюць кантэнт, напісаны штучным інтэлектам (напрыклад, «Гэты артыкул быў створаны штучным інтэлектам»), каб падтрымліваць давер.
Канфідэнцыяльнасць і абарона дадзеных
Генератыўны штучны інтэлект часта мае патрэбу ў дадзеных, у тым ліку ў патэнцыйна канфідэнцыйных персанальных дадзеных, для функцыянавання або навучання. Аўтаномныя аперацыі павінны паважаць прыватнасць:
-
Агент службы падтрымкі кліентаў са штучным інтэлектам будзе атрымліваць доступ да інфармацыі аб уліковым запісе, каб дапамагчы кліенту; гэтыя дадзеныя павінны быць абаронены і выкарыстоўвацца толькі для выканання задачы.
-
Калі выкладчыкі, якія працуюць са штучным інтэлектам, маюць доступ да профіляў студэнтаў, то такія законы, як FERPA (у ЗША), павінны прадугледжваць канфідэнцыяльнасць адукацыйных дадзеных.
-
Вялікія мадэлі могуць міжволі запамінаць канкрэтныя дадзеныя са сваіх навучальных дадзеных (напрыклад, паўтараць адрас чалавека, які бачылі падчас навучання). Такія метады, як дыферэнцыяльная прыватнасць і ананімізацыя дадзеных у навучанні, важныя для прадухілення ўцечкі асабістай інфармацыі ў згенераваных выніках.
-
Такія правілы, як GDPR, даюць асобам правы на аўтаматызаваныя рашэнні, якія іх закранаюць. Людзі могуць запытаць праверку чалавекам або рашэнні, якія не будуць цалкам аўтаматызаваны, калі яны істотна ўплываюць на іх. Да 2030 года гэтыя правілы могуць змяніцца па меры распаўсюджвання штучнага інтэлекту, магчыма, уводзячы правы на тлумачэнне або адмову ад апрацоўкі дадзеных штучным інтэлектам.
Бяспека і злоўжыванні
Аўтаномныя сістэмы штучнага інтэлекту могуць стаць мішэнямі для ўзлому або могуць быць выкарыстаны для здзяйснення шкоднасных дзеянняў:
-
Генератар кантэнту са штучным інтэлектам можа быць выкарыстаны для стварэння дэзінфармацыі ў вялікіх маштабах (відэа з глыбокімі фэйкамі, артыкулы з фэйкавымі навінамі), што ўяўляе сабой рызыку для грамадства. Этычнасць выпуску вельмі магутных генератыўных мадэляў з'яўляецца прадметам гарачых дыскусій (напрыклад, OpenAI першапачаткова асцярожна ставіўся да магчымасцей GPT-4 у галіне выяваў). Рашэнні ўключаюць вадзяныя знакі на кантэнт, згенераваны штучным інтэлектам, для выяўлення фэйкаў і выкарыстанне штучнага інтэлекту для барацьбы са штучным інтэлектам (напрыклад, алгарытмы выяўлення глыбокіх фэйкаў).
-
Калі штучны інтэлект кіруе фізічнымі працэсамі (дроны, аўтамабілі, прамысловы кантроль), яго абарона ад кібератак мае вырашальнае значэнне. Узламаная аўтаномная сістэма можа нанесці рэальны ўрон. Гэта азначае надзейнае шыфраванне, абарону ад збояў і магчымасць чалавека перавызначыць або адключыць сістэму, калі нешта здаецца скампраметаваным.
-
Існуе таксама занепакоенасць тым, што штучны інтэлект можа выйсці за межы запланаваных абмежаванняў (сцэнар «ізгояў-штучных інтэлектаў»). Хоць існуючыя штучныя інтэлекты не маюць ні свабоды дзеянняў, ні намеру, калі будучыя аўтаномныя сістэмы будуць больш агентыўнымі, спатрэбяцца строгія абмежаванні і маніторынг, каб гарантаваць, што яны, напрыклад, не будуць выконваць несанкцыянаваныя здзелкі або парушаць законы з-за няправільна вызначанай мэты.
Этычнае выкарыстанне і ўплыў на чалавека
Нарэшце, больш шырокія этычныя меркаванні:
-
Зрушэнне працоўных месцаў: калі штучны інтэлект можа выконваць задачы без умяшання чалавека, што адбудзецца з гэтымі працоўнымі месцамі? Гістарычна склалася, што тэхналогіі аўтаматызуюць некаторыя працоўныя месцы, але ствараюць іншыя. Пераход можа быць балючым для работнікаў, чые навыкі звязаны з задачамі, якія будуць аўтаматызаваны. Грамадству трэба будзе кіраваць гэтым шляхам перападрыхтоўкі, адукацыі і, магчыма, пераасэнсавання эканамічнай падтрымкі (некаторыя мяркуюць, што штучны інтэлект можа запатрабаваць такіх ідэй, як універсальны базавы даход, калі вялікая частка працы будзе аўтаматызавана). Апытанні ўжо паказваюць змешаныя пачуцці — адно даследаванне паказала, што траціна работнікаў занепакоеная тым, што штучны інтэлект заменіць працоўныя месцы, у той час як іншыя бачаць у ім пазбаўленне ад цяжкай працы.
-
Эрозія чалавечых навыкаў: калі выкладчыкі штучнага інтэлекту будуць выкладаць, а аўтапілоты — ездзіць, а сам штучны інтэлект будзе пісаць код, ці страцяць людзі гэтыя навыкі? Празмерная залежнасць ад штучнага інтэлекту ў горшым выпадку можа падарваць экспертызу; гэта тое, на што адукацыйныя і навучальныя праграмы павінны будуць адаптавацца, гарантуючы, што людзі ўсё роўна будуць вывучаць асновы, нават калі штучны інтэлект дапаможа.
-
Прыняцце этычных рашэнняў: ШІ не валодае чалавечым маральным меркаваннем. У сферы аховы здароўя ці права рашэнні, заснаваныя выключна на дадзеных, могуць супярэчыць спачуванням або справядлівасці ў асобных выпадках. Нам можа спатрэбіцца закадаваць этычныя рамкі ў ШІ (галінка даследаванняў этыкі ШІ, напрыклад, узгадненне рашэнняў ШІ з чалавечымі каштоўнасцямі). Як мінімум, рэкамендуецца трымаць людзей у курсе этычна абгрунтаваных рашэнняў.
-
Інклюзіўнасць: забеспячэнне шырокага распаўсюджвання пераваг штучнага інтэлекту з'яўляецца этычнай мэтай. Калі толькі буйныя кампаніі могуць дазволіць сабе перадавы штучны інтэлект, невялікія прадпрыемствы або больш бедныя рэгіёны могуць застацца без увагі. Ініцыятывы з адкрытым зыходным кодам і даступныя рашэнні ў галіне штучнага інтэлекту могуць дапамагчы дэмакратызаваць доступ. Акрамя таго, інтэрфейсы павінны быць распрацаваны такім чынам, каб кожны мог карыстацца інструментамі штучнага інтэлекту (розныя мовы, даступнасць для людзей з абмежаванымі магчымасцямі і г.д.), каб мы не стварылі новы лічбавы падзел на тое, «у каго ёсць памочнік са штучным інтэлектам, а ў каго яго няма».
Бягучае змяншэнне рызык: З станоўчага боку, па меры ўкаранення кампаній штучнага інтэлекту пакалення расце дасведчанасць і дзеянні па гэтых праблемах. Да канца 2023 года амаль палова кампаній, якія выкарыстоўваюць штучны інтэлект, актыўна працавалі над змяншэннем такіх рызык, як недакладнасць ( Стан штучнага інтэлекту ў 2023 годзе: год прарыву генератыўнага штучнага інтэлекту | McKinsey ) ( Стан штучнага інтэлекту: глабальнае апытанне | McKinsey ), і гэтая лічба расце. Тэхналагічныя кампаніі стварылі этычныя рады па штучным інтэлекце; урады распрацоўваюць правілы. Галоўнае — уключыць этыку ў распрацоўку штучнага інтэлекту з самага пачатку («Этыка на этапе праектавання»), а не рэагаваць пазней.
У заключэнне адносна праблем: прадастаўленне большай аўтаноміі штучнаму інтэлекту — гэта палка з двума канцамі. Гэта можа прывесці да эфектыўнасці і інавацый, але патрабуе высокай планкі адказнасці. У бліжэйшыя гады, верагодна, з'явіцца спалучэнне тэхналагічных рашэнняў (для паляпшэння паводзін штучнага інтэлекту), працэсных рашэнняў (палітычныя і кантрольныя сістэмы) і, магчыма, новых стандартаў або сертыфікацый (сістэмы штучнага інтэлекту могуць праходзіць аўдыт і сертыфікацыю, як сёння рухавікі або электроніка). Паспяховае пераадоленне гэтых праблем вызначыць, наколькі гладка мы зможам інтэграваць аўтаномны штучны інтэлект у грамадства такім чынам, каб гэта спрыяла дабрабыту і даверу людзей.
Выснова
Генератыўны штучны інтэлект хутка ператварыўся з новага эксперыменту ў трансфармацыйную універсальную тэхналогію, якая закранае кожны куток нашага жыцця. У гэтым дакуменце разглядаецца, як да 2025 года сістэмы штучнага інтэлекту ўжо пішуць артыкулы, распрацоўваюць графіку, кадуюць праграмнае забеспячэнне, размаўляюць з кліентамі, складаюць кароткія звесткі пра медыцынскія дакументы, займаюцца рэпетытарствам са студэнтамі, аптымізуюць ланцужкі паставак і складаюць фінансавыя справаздачы. Важна адзначыць, што ў многіх з гэтых задач штучны інтэлект можа працаваць практычна без умяшання чалавека , асабліва для выразна акрэсленых, паўтаральных задач. Кампаніі і прыватныя асобы пачынаюць давяраць штучнаму інтэлекту выконваць гэтыя абавязкі аўтаномна, атрымліваючы перавагі ў хуткасці і маштабе.
Зазіраючы ў 2035 год, мы стаім на парозе эпохі, калі штучны інтэлект стане яшчэ больш усюдыісным памочнікам — часта нябачнай лічбавай рабочай сілай , якая будзе займацца руціннымі справамі, каб людзі маглі засяродзіцца на выключным. Мы чакаем, што генератыўны штучны інтэлект будзе надзейна кіраваць аўтамабілямі і грузавікамі па нашых дарогах, кіраваць запасамі на складах на працягу ночы, адказваць на нашы пытанні ў якасці дасведчаных асабістых памочнікаў, праводзіць індывідуальныя заняткі са студэнтамі па ўсім свеце і нават дапамагаць адкрываць новыя лекі ў медыцыне — усё гэта з усё меншым непасрэдным кантролем. Грань паміж інструментам і агентам будзе размывацца, па меры таго як штучны інтэлект будзе пераходзіць ад пасіўнага выканання інструкцый да праактыўнай генерацыі рашэнняў.
Аднак шлях да гэтай аўтаномнай будучыні штучнага інтэлекту павінен быць асцярожным. Як мы ўжо адзначалі, кожная вобласць мае свой уласны набор абмежаванняў і абавязкаў:
-
Сённяшняя праверка рэальнасці: штучны інтэлект не бездакорны. Ён выдатна распазнае шаблоны і стварае кантэнт, але яму не хапае сапраўднага разумення і здаровага сэнсу ў чалавечым сэнсе. Такім чынам, пакуль што кантроль чалавека застаецца падстрахоўкай. Распазнаванне таго, дзе штучны інтэлект гатовы лётаць самастойна (а дзе не), мае вырашальнае значэнне. Шматлікія поспехі сёння дасягаюцца дзякуючы каманды чалавека і штучнага інтэлекту , і гэты гібрыдны падыход будзе і надалей каштоўным там, дзе поўная аўтаномія пакуль не з'яўляецца мэтазгоднай.
-
Абяцанне заўтрашняга дня: дзякуючы прагрэсу ў архітэктуры мадэляў, метадах навучання і механізмах кантролю магчымасці штучнага інтэлекту будуць працягваць пашырацца. Наступнае дзесяцігоддзе даследаванняў і распрацовак можа вырашыць многія бягучыя праблемныя пытанні (скарачэнне галюцынацый, паляпшэнне інтэрпрэтацыі, адпаведнасць штучнага інтэлекту чалавечым каштоўнасцям). Калі гэта так, то сістэмы штучнага інтэлекту да 2035 года могуць стаць дастаткова надзейнымі, каб ім было даручана значна большая аўтаномія. Прагнозы ў гэтай працы — ад настаўнікаў штучнага інтэлекту да пераважна самакіраваных прадпрыемстваў — цалкам могуць стаць нашай рэальнасцю або нават быць пераўзыдзенымі інавацыямі, якія цяжка ўявіць сёння.
-
Роля чалавека і адаптацыя: Замест таго, каб штучны інтэлект цалкам замяніць людзей, мы прадбачым эвалюцыю роляў. Спецыялістам ва ўсіх галінах, верагодна, трэба будзе навучыцца працаваць са штучным інтэлектам — кіраваць ім, правяраць яго і засяроджвацца на тых аспектах працы, якія патрабуюць выразна чалавечых моцных бакоў, такіх як эмпатыя, стратэгічнае мысленне і рашэнне складаных праблем. Адукацыя і навучанне рабочай сілы павінны быць накіраваны на тое, каб падкрэсліць гэтыя ўнікальныя чалавечыя навыкі, а таксама пісьменнасць усіх у галіне штучнага інтэлекту. Палітыкі і бізнес-лідары павінны планаваць пераходы на рынку працы і забяспечваць сістэмы падтрымкі для тых, хто пацярпеў ад аўтаматызацыі.
-
Этыка і кіраванне: магчыма, самае галоўнае, што асновай гэтага тэхналагічнага росту павінна быць этычная структура выкарыстання і кіравання штучным інтэлектам. Давер — гэта валюта ўкаранення: людзі дазволяць штучнаму інтэлекту кіраваць аўтамабілем або дапамагаць у аперацыях толькі ў тым выпадку, калі яны ўпэўненыя ў яго бяспецы. Пабудова такога даверу прадугледжвае строгае тэсціраванне, празрыстасць, узаемадзеянне з зацікаўленымі бакамі (напрыклад, удзел лекараў у распрацоўцы медыцынскіх штучных інтэлектаў, настаўнікаў — у навучальных інструментах па выкарыстанні штучнага інтэлекту) і адпаведнае рэгуляванне. Для вырашэння такіх праблем, як глыбокія фэйкі або штучны інтэлект у вайне, і забеспячэння глабальных нормаў адказнага выкарыстання можа спатрэбіцца міжнароднае супрацоўніцтва.
У заключэнне, генератыўны штучны інтэлект з'яўляецца магутным рухавіком прагрэсу. Пры разумным выкарыстанні ён можа пазбавіць людзей ад цяжкай працы, раскрыць творчы патэнцыял, персаналізаваць паслугі і ліквідаваць прабелы (прыўносячы экспертаў туды, дзе іх не хапае). Галоўнае — выкарыстоўваць яго такім чынам, каб павялічыць чалавечы патэнцыял, а не маргіналізаваць яго . У бліжэйшай перспектыве гэта азначае, што людзі павінны быць у курсе падзей, каб кіраваць штучным інтэлектам. У доўгатэрміновай перспектыве гэта азначае закадзіраванне гуманістычных каштоўнасцей у аснову сістэм штучнага інтэлекту, каб нават калі яны дзейнічаюць самастойна, яны дзейнічалі ў нашых калектыўных інтарэсах.
| Дамен | Надзейная аўтаномія сёння (2025) | Чаканая надзейная аўтаномія да 2035 года |
|---|---|---|
| Напісанне і кантэнт | - Аўтаматычна генеруюцца звычайныя навіны (спорт, прыбытак). - Агляды прадуктаў, зведзеныя штучным інтэлектам. - Чарнавікі артыкулаў або электронных лістоў для рэдагавання чалавекам. ( Філана Патэрсан - профіль супольнасці ONA ) ( Amazon паляпшае вопыт водгукаў кліентаў з дапамогай штучнага інтэлекту ) | - Большая частка навін і маркетынгавага кантэнту напісана аўтаматычна з дакладнасцю да фактаў. - Штучны інтэлект стварае поўныя артыкулы і прэс-рэлізы з мінімальным кантролем. - Высока персаналізаваны кантэнт генеруецца па запыце. |
| Візуальныя мастацтва і дызайн | - Штучны інтэлект генеруе выявы з падказак (чалавек выбірае найлепшыя). - Канцэпт-арт і варыянты дызайну ствараюцца аўтаномна. | - Штучны інтэлект стварае паўнавартасныя відэа/фільмы і складаную графіку. - Генератыўны дызайн прадуктаў/архітэктуры, які адпавядае спецыфікацыям. - Персаналізаваныя медыяфайлы (малюнкі, відэа), створаныя па запыце. |
| Праграмнае кадаванне | - Штучны інтэлект аўтаматычна завяршае код і піша простыя функцыі (праверана распрацоўшчыкам). - Аўтаматызаваная генерацыя тэстаў і прапановы па памылках. ( Праграмаванне на Copilot: дадзеныя за 2023 год сведчаць аб зніжэнні якасці кода (у тым ліку прагнозы на 2024 год) - GitClear ) ( GitHub Copilot пераўзыходзіць даследчы справаздачу аб памочніках кода са штучным інтэлектам -- часопіс Visual Studio ) | - Штучны інтэлект надзейна рэалізуе ўсе функцыі са спецыфікацый. - Аўтаномная адладка і падтрымка кода для вядомых шаблонаў. - Стварэнне праграм з нізкім узроўнем кода з мінімальным удзелам чалавека. |
| Абслугоўванне кліентаў | - Чат-боты адказваюць на часта задаваныя пытанні, вырашаюць простыя праблемы (перадаюць складаныя справы). - Штучны інтэлект апрацоўвае ~70% звычайных запытаў па некаторых каналах. ( 59 статыстычных дадзеных аб абслугоўванні кліентаў з выкарыстаннем штучнага інтэлекту за 2025 год ) ( Да 2030 года 69% рашэнняў падчас узаемадзеяння з кліентамі будуць прымацца... ) | - Штучны інтэлект апрацоўвае большасць узаемадзеянняў з кліентамі ад пачатку да канца, у тым ліку складаныя запыты. - Прыняцце рашэнняў у рэжыме рэальнага часу аб саступках па паслугах (вяртанне грошай, абнаўленне). - Агенты-людзі толькі для эскалацыі або асаблівых выпадкаў. |
| Ахова здароўя | - Штучны інтэлект складае медыцынскія заўвагі; прапануе дыягназы, якія лекары правяраюць. - Штучны інтэлект чытае некаторыя сканы (радыялогію) пад наглядам; ацэньвае простыя выпадкі. ( Колькасць прадуктаў медыцынскай візуалізацыі на базе штучнага інтэлекту можа павялічыцца ў пяць разоў да 2035 года ) | - Штучны інтэлект надзейна дыягнастуе распаўсюджаныя захворванні і інтэрпрэтуе большасць медыцынскіх малюнкаў. - Штучны інтэлект кантралюе пацыентаў і ініцыюе лячэнне (напрыклад, напамінкі аб леках, папярэджанні аб надзвычайных сітуацыях). - Віртуальныя "медсёстры" са штучным інтэлектам займаюцца руціннымі назіраннямі; лекары засяроджваюцца на складаным доглядзе. |
| Адукацыя | - Рэпетытары са штучным інтэлектам адказваюць на пытанні вучняў, ствараюць практычныя задачы (настаўнік кантралюе працу). - Штучны інтэлект дапамагае ў ацэньванні (з дапамогай агляду настаўнікам). ([Генератыўны штучны інтэлект для адукацыі ад дзіцячага сада да 12 класа] | Даследчая справаздача Applify]( https://www.applify.co/research-report/gen-ai-for-k12#:~:text=AI%20tutors%3A%20Virtual%20AI,individual%20learning%20styles%20and%20paces )) |
| Лагістыка | - Штучны інтэлект аптымізуе маршруты дастаўкі і ўпакоўку (людзі ставяць мэты). - Штучны інтэлект пазначае рызыкі ў ланцужку паставак і прапануе меры па іх змякчэнні. ( Найлепшыя прыклады выкарыстання генератыўнага штучнага інтэлекту ў лагістыцы ) | - У значнай ступені беспілотныя дастаўкі (грузавікі, беспілотнікі) пад наглядам кантролераў са штучным інтэлектам. - Штучны інтэлект аўтаномна перанакіроўвае грузы ў абыход збояў і карэктуе запасы. - Каардынацыя ланцужка паставак (заказ, размеркаванне) ад пачатку да канца пад кіраваннем штучнага інтэлекту. |
| Фінансы | - Штучны інтэлект генеруе фінансавыя справаздачы/рэзюмэ навін (правераныя чалавекам). - Робаты-кансультанты кіруюць простымі партфелямі; чат са штучным інтэлектам апрацоўвае запыты кліентаў. ( Генератыўны штучны інтэлект прыходзіць у фінансы ) | - Аналітыкі на аснове штучнага інтэлекту ствараюць інвестыцыйныя рэкамендацыі і справаздачы аб рызыках з высокай дакладнасцю. - Аўтаномны гандаль і рэбалансаванне партфеля ў межах устаноўленых лімітаў. - Штучны інтэлект аўтаматычна ўхваляе стандартныя пазыкі/прэтэнзіі; людзі апрацоўваюць выключэнні. |
Спасылкі:
-
Патэрсан, Філана. Памнажэнне аўтаматызаваных гісторый аб прыбытках . Associated Press (2015) – Апісвае аўтаматызаваную генерацыю AP тысяч справаздач аб прыбытках без удзелу чалавека-аўтара ( Памнажэнне аўтаматызаваных гісторый аб прыбытках | Associated Press ).
-
McKinsey & Company. Стан штучнага інтэлекту ў пачатку 2024 года: укараненне штучнага інтэлекту пакалення рэзка ўзрастае і пачынае прыносіць каштоўнасць . (2024 г.) – Паведамляецца, што 65% арганізацый рэгулярна выкарыстоўваюць генератыўны штучны інтэлект, што амаль удвая больш, чым у 2023 годзе ( Стан штучнага інтэлекту ў пачатку 2024 года | McKinsey ), і абмяркоўваюцца меры па змяншэнні рызык ( Стан штучнага інтэлекту: глабальнае апытанне | McKinsey ).
-
Gartner. Па-за ChatGPT: будучыня генератыўнага штучнага інтэлекту для прадпрыемстваў . (2023) – прагназуе, што да 2030 года 90% блокбастараў могуць быць створаны з дапамогай штучнага інтэлекту ( Выпадкі выкарыстання генератыўнага штучнага інтэлекту для галін прамысловасці і прадпрыемстваў ), і падкрэслівае выпадкі выкарыстання генератыўнага штучнага інтэлекту, такія як распрацоўка лекаў ( Выпадкі выкарыстання генератыўнага штучнага інтэлекту для галін прамысловасці і прадпрыемстваў ).
-
Twipe. 12 спосабаў выкарыстання журналістамі інструментаў штучнага інтэлекту ў рэдакцыі . (2024) – Прыклад таго, як штучны інтэлект «Клара» ў навінавым выданні піша 11% артыкулаў, а рэдактары-людзі правяраюць увесь кантэнт са штучным інтэлектам ( 12 спосабаў выкарыстання журналістамі інструментаў штучнага інтэлекту ў рэдакцыі — Twipe ).
-
Навіны Amazon.com. Amazon паляпшае працу з водгукамі кліентаў з дапамогай штучнага інтэлекту . (2023 г.) – Абвяшчае аб згенераваных штучным інтэлектам кароткіх аглядах на старонках прадуктаў, каб дапамагчы пакупнікам ( Amazon паляпшае працу з водгукамі кліентаў з дапамогай штучнага інтэлекту ).
-
Zendesk. 59 Статыстыка абслугоўвання кліентаў з выкарыстаннем штучнага інтэлекту за 2025 год . (2023) – паказвае, што больш за дзве траціны арганізацый, якія займаюцца абслугоўваннем кліентаў, лічаць, што генератыўны штучны інтэлект дадасць «цяпла» абслугоўванню ( 59 Статыстыка абслугоўвання кліентаў з выкарыстаннем штучнага інтэлекту за 2025 год ), і прагназуе, што ў рэшце рэшт штучны інтэлект будзе выкарыстоўвацца ў 100% узаемадзеянняў з кліентамі ( 59 Статыстыка абслугоўвання кліентаў з выкарыстаннем штучнага інтэлекту за 2025 год ).
-
Futurum Research & SAS. Вопыт 2030: будучыня кліенцкага досведу . (2019) – Апытанне паказала, што брэнды чакаюць, што да 2030 года ~69% рашэнняў падчас узаемадзеяння з кліентамі будуць прымацца разумнымі машынамі ( Каб пераасэнсаваць пераход да кліенцкага досведу, маркетолагі павінны зрабіць гэтыя 2 рэчы ).
-
Dataiku. Найлепшыя прыклады выкарыстання генератыўнага штучнага інтэлекту ў лагістыцы . (2023 г.) — Апісвае, як GenAI аптымізуе загрузку (скарачэнне пустой прасторы грузавіка прыкладна на 30 %) ( Найлепшыя прыклады выкарыстання генератыўнага штучнага інтэлекту ў лагістыцы ) і пазначае рызыкі ў ланцужку паставак, скануючы навіны.
-
Часопіс Visual Studio. GitHub Copilot займае першае месца ў даследчым дакладзе па памочніках штучнага інтэлекту па напісанні кода . (2024 г.) – Стратэгічныя планавыя прагнозы Gartner: да 2028 года 90% карпаратыўных распрацоўшчыкаў будуць выкарыстоўваць памочнікаў штучнага інтэлекту па напісанні кода (у параўнанні з 14% у 2024 г.) ( GitHub Copilot займае першае месца ў даследчым дакладзе па памочніках штучнага інтэлекту па напісанні кода -- Часопіс Visual Studio ).
-
Bloomberg News. Прадстаўляем BloombergGPT . (2023 г.) – Падрабязнасці мадэлі Bloomberg з 50 параметрамі, прызначанай для фінансавых задач, убудаванай у тэрмінал для пытанняў і адказаў і падтрымкі аналізу ( Генеральны штучны інтэлект прыходзіць у фінансы ).
Артыкулы, якія вам могуць спадабацца пасля гэтага:
🔗 Прафесіі, якія штучны інтэлект не можа замяніць — і якія прафесіі заменіць штучны інтэлект?
Глабальны погляд на змяненне рынку працы, у якім разглядаюцца прафесіі, абароненыя ад парушэнняў, выкліканых штучным інтэлектам, а якія найбольш схільныя да рызыкі.
🔗 Ці можа штучны інтэлект прадказваць фондавы рынак?
Паглыбленае вывучэнне магчымасцей, абмежаванняў і этычных меркаванняў выкарыстання штучнага інтэлекту для прагназавання фондавага рынку.
🔗 Як генератыўны штучны інтэлект можна выкарыстоўваць у кібербяспецы?
Даведайцеся, як генератыўны штучны інтэлект ужываецца для абароны ад кіберпагроз, ад выяўлення анамалій да мадэлявання пагроз.