Тэрмін гучыць узнёсла, але мэта вельмі практычная: стварыць сістэмы штучнага інтэлекту, якім людзі могуць давяраць, бо яны распрацаваны, створаны і выкарыстоўваюцца такім чынам, каб паважаць правы чалавека, памяншаць шкоду і прыносіць рэальную карысць. Вось і ўсё — ну, у асноўным.
Артыкулы, якія вам могуць спадабацца пасля гэтага:
🔗 Што такое MCP у штучным інтэлекце
Тлумачыць модульны вылічальны пратакол і яго ролю ў штучным інтэлекце.
🔗 Што такое перыферыйны штучны інтэлект
Апісвае, як апрацоўка на аснове перыферыі дазваляе хутчэй прымаць лакальныя рашэнні штучным інтэлектам.
🔗 Што такое генератыўны штучны інтэлект
Прадстаўляе мадэлі, якія ствараюць тэкст, выявы і іншы арыгінальны кантэнт.
🔗 Што такое агентычны штучны інтэлект
Апісвае аўтаномныя агенты штучнага інтэлекту, здольныя прымаць рашэнні, арыентаваныя на мэту.
Што такое этыка штучнага інтэлекту? Простае вызначэнне 🧭
Этыка штучнага інтэлекту — гэта набор прынцыпаў, працэсаў і гарантый, якія кіруюць праектаваннем, распрацоўкай, разгортваннем і кіраваннем штучным інтэлектам, каб ён забяспечваў правы чалавека, справядлівасць, падсправаздачнасць, празрыстасць і сацыяльнае дабро. Уявіце сабе гэта як штодзённыя правілы дарожнага руху для алгарытмаў — з дадатковымі праверкамі на дзіўныя месцы, дзе ўсё можа пайсці не так.
Глабальныя крытэрыі пацвярджаюць гэта: у рэкамендацыі ЮНЕСКА асноўныя ўвагі надаюцца правам чалавека, кантролю з боку чалавека і справядлівасці, а празрыстасць і справядлівасць — неад'емным элементам [1]. Прынцыпы штучнага інтэлекту АЭСР накіраваны на стварэнне надзейнага штучнага інтэлекту, які паважае дэмакратычныя каштоўнасці, застаючыся пры гэтым практычным для палітычных і інжынерных каманд [2].
Карацей кажучы, этыка штучнага інтэлекту — гэта не плакат на сцяне. Гэта кіраўніцтва, якое каманды выкарыстоўваюць для прагназавання рызык, доказу надзейнасці і абароны людзей. Структура кіравання рызыкамі ў галіне штучнага інтэлекту NIST разглядае этыку як актыўнае кіраванне рызыкамі на працягу ўсяго жыццёвага цыклу штучнага інтэлекту [3].

Што робіць штучны інтэлект добрым у галіне этыкі ✅
Вось простая версія. Добрая праграма па этыцы штучнага інтэлекту:
-
Жыве, а не ламінуе — палітыкі, якія спрыяюць рэальным інжынерным практыкам і аглядам.
-
Пачынаецца з фармулёўкі праблемы — калі мэта няправільная, ніякае выпраўленне справядлівасці яе не выратуе.
-
Рашэнні па дакументах — чаму гэтыя дадзеныя, чаму гэтая мадэль, чаму гэты парог.
-
Тэсты з улікам кантэксту — ацэньвайце па падгрупах, а не толькі па агульнай дакладнасці (асноўная тэма NIST) [3].
-
Паказвае сваю працу — мадэльныя карты, дакументацыю па наборах дадзеных і зразумелую камунікацыю з карыстальнікамі [5].
-
Стварэнне падсправаздачнасці — названыя ўладальнікі, шляхі эскалацыі, магчымасць аўдыту.
-
Ураўнаважвае кампрамісы ў адкрытай форме — бяспека супраць карыснасці супраць прыватнасці, запісана.
-
Звязана з заканадаўствам — патрабаванні, заснаваныя на рызыках, якія маштабуюць кантроль з уплывам (гл. Закон ЕС аб штучным інтэлекце) [4].
Калі гэта не змяняе ніводнага рашэння адносна прадукту, гэта не этыка, а дэкор.
Хуткі адказ на галоўнае пытанне: што такое этыка штучнага інтэлекту? 🥤
Вось як каманды адказваюць на тры паўтаральныя пытанні, якія ўзнікаюць зноў і зноў:
-
Ці варта нам гэта будаваць?
-
Калі так, то як нам паменшыць шкоду і даказаць гэта?
-
Калі ўсё ідзе не так, як трэба, хто вінаваты і што адбываецца далей?
Сумна практычна. Дзіўна складана. Варта таго.
60-секундны міні-кейс (вопыт на практыцы) 📎
Каманда фінтэх-кампаній распрацоўвае мадэль махлярства з высокай агульнай дакладнасцю. Праз два тыдні колькасць заявак у службу падтрымкі з-за блакавання законных плацяжоў у пэўным рэгіёне рэзка ўзрастае. Агляд падгрупы паказвае, што агульная адзнака для гэтага рэгіёна на 12 пунктаў ніжэйшая за сярэднюю. Каманда пераглядае ахоп дадзеных, перавучваецца з лепшай прадстаўленасцю і публікуе абноўленую мадэльную карту , якая дакументуе змены, вядомыя папярэджанні і шлях прывабнасці карыстальнікаў. Дакладнасць зніжаецца на адзін пункт; давер кліентаў расце. Гэта этыка як кіраванне рызыкамі і павага да карыстальнікаў , а не плакат [3][5].
Інструменты і фрэймворкі, якія вы сапраўды можаце выкарыстоўваць 📋
(Дробныя асаблівасці ўключаны наўмысна — такое рэальнае жыццё.)
| Інструмент або фрэймворк | Аўдыторыя | Кошт | Чаму гэта працуе | Заўвагі |
|---|---|---|---|---|
| Структура кіравання рызыкамі NIST у галіне штучнага інтэлекту | Прадукт, рызыка, палітыка | Бясплатна | Зразумелыя функцыі - кіраванне, картаграфаванне, вымярэнне, кіраванне - каардынацыя каманд | Добраахвотны, шырока спасылаецца [3] |
| Прынцыпы АЭСР па штучным інтэлекце | Кіраўнікі, палітыкі | Бясплатна | Каштоўнасці + практычныя рэкамендацыі для надзейнага штучнага інтэлекту | Палярная зорка надзейнага кіравання [2] |
| Закон ЕС аб штучным інтэлекце (на аснове рызык) | Юрыдычныя дырэктары, дырэктары па захаванні адпаведнасці, тэхнічныя дырэктары | Бясплатна* | Узроўні рызыкі ўстанаўліваюць прапарцыйныя меры кантролю для выкарыстання з высокім уздзеяннем | Выдаткі на адпаведнасць патрабаванням адрозніваюцца [4] |
| Мадэльныя карты | Інжынеры машыннага навучання, менеджэры праектаў | Бясплатна | Стандартызуе, што сабой уяўляе мадэль, што яна робіць і дзе яна мае недахопы | Існуюць артыкулы + прыклады [5] |
| Дакументацыя па наборах дадзеных («табліцы дадзеных») | Навукоўцы па апрацоўцы дадзеных | Бясплатна | Тлумачыць паходжанне дадзеных, ахоп, згоду і рызыкі | Ставіцеся да гэтага як да этыкеткі харчовай каштоўнасці |
Паглыбленае апусканне 1 - Прынцыпы ў дзеянні, а не ў тэорыі 🏃
-
Справядлівасць — ацэньвайце прадукцыйнасць у розных дэмаграфічных групах і кантэкстах; агульныя паказчыкі хаваюць шкоду [3].
-
Адказнасць — прызначаць адказных за рашэнні адносна дадзеных, мадэлі і разгортвання. Вядзець журналы прыняцця рашэнняў.
-
Празрыстасць — выкарыстоўвайце мадэльныя карткі; паведамляйце карыстальнікам, наколькі аўтаматызавана рашэнне і якія сродкі прававой абароны існуюць [5].
-
Чалавечы кантроль — уключэнне людзей у працэс прыняцця рашэнняў з высокай рызыкай, надзяленне іх рэальнымі паўнамоцтвамі на спыненне/адмену (на што выразна падкрэсліваецца ЮНЕСКА) [1].
-
Канфідэнцыяльнасць і бяспека — мінімізуйце і абараняйце дадзеныя; улічвайце ўцечку часу вываду і злоўжыванне ў напрамку дзеянняў.
-
Дабрачыннасць — дэманстрацыя сацыяльнай карысці, а не проста выразных ключавых паказчыкаў эфектыўнасці (гэты баланс фармулюецца АЭСР) [2].
Невялікае адхіленне: каманды часам гадзінамі спрачаюцца пра назвы метрык, ігнаруючы пытанне пра саму шкоду. Забаўна, як такое здараецца.
Паглыбленае апусканне 2 - Рызыкі і як іх вымяраць 📏
Этычны штучны інтэлект становіцца канкрэтным, калі вы разглядаеце шкоду як вымерную рызыку:
-
Карта кантэксту - на каго гэта ўплывае, прама і ўскосна? Якімі паўнамоцтвамі сістэмы ў прыняцці рашэнняў?
-
Прыдатнасць дадзеных - прадстаўленне, дрэйф, якасць маркіроўкі, шляхі згоды.
-
Паводзіны мадэлі — рэжымы збояў пры зруху размеркавання, падказках суперніка або шкоднасных уводах.
-
Ацэнка ўздзеяння - ступень сур'ёзнасці × верагоднасць, меры па змякчэнні наступстваў і рэшткавая рызыка.
-
Кантроль жыццёвага цыклу — ад фармулявання праблемы да маніторынгу пасля разгортвання.
NIST падзяляе гэта на чатыры функцыі, якія каманды могуць выкарыстоўваць, не вынаходзячы ровар: кіраванне, картаграфаванне, вымярэнне, кіраванне [3].
Паглыбленае апусканне 3 - Дакументацыя, якая зэканоміць вам час 🗂️
Два сціплыя артэфакты робяць больш, чым любы слоган:
-
Карткі мадэляў — для чаго патрэбна мадэль, як яна ацэньвалася, дзе яна не працуе, этычныя меркаванні і заўвагі — кароткія, структураваныя, чытэльныя [5].
-
Дакументацыя па наборах дадзеных («табліцы дадзеных») — чаму гэтыя дадзеныя існуюць, як яны былі сабраны, хто прадстаўлены, вядомыя прабелы і рэкамендаваныя спосабы выкарыстання.
Калі вам калі-небудзь даводзілася тлумачыць рэгулятарам або журналістам, чаму мадэль паводзіла сябе дрэнна, вы падзякуеце сабе ў мінулым за напісанне гэтых артыкулаў. У будучыні вы будзеце купляць каву ў мінулым.
Паглыбленае апусканне 4 - Кіраванне, якое сапраўды кусаецца 🧩
-
Вызначыць узроўні рызыкі — запазычыць ідэю, заснаваную на рызыках, каб выпадкі выкарыстання з высокім уздзеяннем атрымалі больш глыбокае вывучэнне [4].
-
Праверка этапаў — этычная праверка пры прыёме, перад запускам і пасля запуску. Не пятнаццаць праверак. Трох — гэта цалкам дастаткова.
-
Падзел абавязкаў — распрацоўшчыкі прапануюць, партнёры па рызыках разглядаюць, кіраўнікі падпісваюць. Выразныя межы.
-
Рэагаванне на інцыдэнты — хто прыпыняе мадэль, як карыстальнікі атрымліваюць апавяшчэнне, як выглядае выпраўленне наступстваў.
-
Незалежныя аўдыты — спачатку ўнутраныя; знешнія там, дзе гэтага патрабуюць інтарэсы.
-
Навучанне і стымуляванне — узнагароджвайце праблемы, якія выяўляюцца на ранняй стадыі, а не хоўвайце іх.
Будзем шчырымі: калі кіраванне ніколі не кажа «не» , то гэта не кіраванне.
Паглыбленае апусканне 5 - Людзі ў курсе, а не як рэквізіт 👩⚖️
Чалавечы кантроль — гэта не сцяжок, а выбар дызайну:
-
Калі людзі вырашаюць — выразна акрэсліце парогі, пры якіх чалавек павінен прааналізаваць сітуацыю, асабліва ў выпадку высокарызыкоўных вынікаў.
-
Тлумачнасць для асоб, якія прымаюць рашэнні — дайце чалавеку як тлумачэнне, так і прычыну нявызначанасці .
-
Зваротная сувязь з карыстальнікамі — дазваляюць карыстальнікам аспрэчваць або выпраўляць аўтаматызаваныя рашэнні.
-
Даступнасць — інтэрфейсы, якія розныя карыстальнікі могуць зразумець і рэальна выкарыстоўваць.
Рэкамендацыі ЮНЕСКА тут простыя: чалавечая годнасць і кантроль з'яўляюцца асноўнымі, а не неабавязковымі. Стварайце прадукт такім чынам, каб людзі маглі ўмяшацца, перш чым нанесці шкоду землям [1].
Заўвага - Наступны рубеж: нейратэхналогіі 🧠
Па меры таго, як штучны інтэлект перасякаецца з нейратэхналогіямі, псіхалагічная прыватнасць і свабода думкі становяцца рэальнымі меркаваннямі пры праектаванні. Прымяняецца тая ж схема: прынцыпы, арыентаваныя на правы [1], кіраванне, заснаванае на надзейнасці пры праектаванні [2], і прапарцыйныя меры бяспекі для высокарызыкоўных выпадкаў выкарыстання [4]. Стварыце агароджы загадзя, а не ўсталёўвайце іх пазней.
Як каманды адказваюць на пытанне "Што такое этыка штучнага інтэлекту?" на практыцы - працоўны працэс 🧪
Паспрабуйце гэты просты цыкл. Ён не ідэальны, але надзвычай эфектыўны:
-
Праверка мэты — якую праблему чалавецтва мы вырашаем, і хто атрымлівае карысць, а хто — рызыку?
-
Карта кантэксту — зацікаўленыя бакі, асяроддзе, абмежаванні, вядомыя небяспекі.
-
План апрацоўкі дадзеных — крыніцы, згода, прадстаўнічасць, захоўванне, дакументацыя.
-
Дызайн для бяспекі — спаборніцтвы па тэставанні, камандная праца, прыватнасць ужо на этапе распрацоўкі.
-
Вызначце справядлівасць — выберыце адпаведныя даменнай вобласці паказчыкі; задакументуйце кампрамісы.
-
План тлумачальнасці — што будзе тлумачыцца, каму і як вы будзеце правяраць карыснасць.
-
Мадэльная карта — чарнавік на ранняй стадыі, абнаўленне па меры працы, публікацыя пры запуску [5].
-
Кіраўнічыя вароты - Агляд рызык з адказнымі ўладальнікамі; структура з выкарыстаннем функцый NIST [3].
-
Маніторынг пасля запуску — паказчыкі, абвесткі аб зрухе, інструкцыі па эксплуатацыі інцыдэнтаў, звароты карыстальнікаў.
Калі крок здаецца цяжкім, маштабуйце яго ў адпаведнасці з рызыкай. У гэтым і хітрасць. Залішняя распрацоўка бота для выпраўлення правапісу нікому не дапаможа.
Этыка супраць адпаведнасці — пікантнае, але неабходнае адрозненне 🌶️
-
Этыка пытаецца: ці правільна гэта для людзей?
-
Адпаведнасць пытаецца: ці адпавядае гэта правілам?
Вам патрэбныя абодва. Мадэль ЕС, заснаваная на рызыках, можа стаць асновай вашага адпаведнасці патрабаванням, але ваша праграма этыкі павінна выходзіць за рамкі мінімумаў, асабліва ў неадназначных або новых выпадках выкарыстання [4].
Хуткая (памылковая) метафара: адпаведнасць — гэта плот; этыка — пастух. Плот трымае вас у межах; пастух дапамагае вам ісці правільным шляхам.
Распаўсюджаныя памылкі — і што рабіць замест гэтага 🚧
-
Пастка: тэатр этыкі — мудрагелістыя прынцыпы без рэсурсаў.
Вырашэнне: прысвяціць час, уладальнікаў і перагледзець кантрольныя пункты. -
Пастка: усредненне шкоды — выдатныя агульныя паказчыкі хаваюць няўдачу падгруп.
Выпраўленне: заўсёды ацэньвайце па адпаведных падпапуляцыях [3]. -
Пастка: сакрэтнасць пад выглядам бяспекі — утойванне звестак ад карыстальнікаў.
Выпраўленне: раскрыццё магчымасцей, абмежаванняў і сродкаў прававой абароны простай мовай [5]. -
Пастка: аўдыт у канцы — выяўленне праблем непасрэдна перад запускам.
Выпраўленне: зрушыць налева — зрабіць этыку часткай дызайну і збору дадзеных. -
Пастка: кантрольныя спісы без ацэнкі — выкананне формаў, а не сэнсу.
Выпраўленне: спалучайце шаблоны з экспертнымі аглядамі і даследаваннямі карыстальнікаў.
Часта задаваныя пытанні — тое, пра што вас усё роўна спытаюць ❓
Ці з'яўляецца этыка штучнага інтэлекту антыінавацыямі?
Не. Гэта інавацыі, якія спрыяюць карысным вынікам. Этыка пазбягае тупікоў, такіх як прадузятыя сістэмы, якія выклікаюць негатыўную рэакцыю або юрыдычныя праблемы. Структура АЭСР відавочна спрыяе інавацыям з бяспекай [2].
Ці патрэбна нам гэта, калі наш прадукт нізкарызыкоўны?
Так, але лягчэйшы. Выкарыстоўвайце прапарцыйны кантроль. Гэтая ідэя, заснаваная на рызыцы, з'яўляецца стандартнай у падыходзе ЕС [4].
Якія дакументы абавязковыя?
Як мінімум: дакументацыя па асноўных наборах даных, картка мадэлі для кожнай мадэлі і журнал рашэнняў аб выпуску [5].
Каму належыць этыка штучнага інтэлекту?
Кожны адказвае за паводзіны, але каманды па прадуктах, навуцы аб дадзеных і рызыках павінны мець названыя абавязкі. Функцыі NIST з'яўляюцца добрай асновай [3].
Даўно не чытаў - Заключныя заўвагі 💡
Калі вы ўсё гэта прагледзелі, вось сутнасць: што такое этыка штучнага інтэлекту? Гэта практычная дысцыпліна для стварэння штучнага інтэлекту, якому людзі могуць давяраць. Абапірайцеся на шырока прынятыя рэкамендацыі — праваабарончы погляд ЮНЕСКА і надзейныя прынцыпы штучнага інтэлекту АЭСР. Выкарыстоўвайце сістэму рызык NIST для яе ўкаранення і пастаўляйце з мадэльнымі картамі і дакументацыяй па наборах дадзеных, каб ваш выбар быў зразумелым. Затым працягвайце прыслухоўвацца да карыстальнікаў, зацікаўленых бакоў, да ўласнага маніторынгу — і карэктуйце свае рашэнні. Этыка — гэта не аднаразовае рашэнне; гэта звычка.
І так, часам вы будзеце выпраўляць свае памылкі. Гэта не няўдача. Гэта праца. 🌱
Спасылкі
-
ЮНЕСКА - Рэкамендацыя па этыцы штучнага інтэлекту (2021 г.). Спасылка
-
АЭСР - Прынцыпы штучнага інтэлекту (2019). Спасылка
-
NIST - Структура кіравання рызыкамі штучнага інтэлекту (AI RMF 1.0) (2023) (PDF). Спасылка
-
EUR-Lex - Рэгламент (ЕС) 2024/1689 (Закон аб штучным інтэлекце). Спасылка
-
Мітчэл і інш. - «Мадэльныя карты для мадэльнай справаздачнасці» (ACM, 2019). Спасылка