⚖️ Маск хоча атрымаць ад OpenAI і Microsoft да 134 мільярдаў долараў ↗
Ілан Маск цяпер разлічвае на сапраўды мульцяшную кампенсацыю, сцвярджаючы, што мае права на велізарны «неправамерны прыбытак», звязаны з OpenAI і Microsoft. У заяве, па сутнасці, гаворыцца: я дапамагаў на ранняй стадыі, вы атрымалі велізарны прыбытак, заплаціце.
OpenAI і Microsoft адхіляюць пазоў аб кампенсацыі шкоды, і ўся барацьба схіляецца да таго, што судовы расклад ужо выглядае... пікантным. У ім менш «драмы ў лабараторыі для зануд» і больш «карпаратыўнага разводу з дапамогай электронных табліц»
Калі не што іншае, гэта напамін пра тое, што бум штучнага інтэлекту — гэта не толькі мадэлі і эталонныя паказчыкі, але і судовыя пазовы, крыўды і вельмі дарагая папяровая апрацоўка.
🕵️ Каліфорнія расследуе дзейнасць кампаніі Ілона Маска па развіцці штучнага інтэлекту пасля лавіны скаргаў на сэксуальны кантэнт ↗
Генеральны пракурор Каліфорніі расследуе, ці перасякае інструмент для рэдагавання малюнкаў са штучным інтэлектам, звязаны з кампаніяй Маска, межы заканадаўства пасля патоку скаргаў на сэксуальны кантэнт. Асноўная ўвага надаецца адназначнаму: што генеруецца, як лёгка і ці парушае гэта заканадаўства штата.
Назіраецца знаёмая заканамернасць — магутныя інструменты стварэння сутыкаюцца са слабымі бар'ерамі, а потым з'яўляюцца рэгулятары з буферам абмену і нахмураным выразам твару. Часам гэты нахмураны выраз ператвараецца ў прымус, ці, прынамсі, так здаецца.
Гэта таксама пераносіць «адказнае разгортванне» з маркетынгавай пляцоўкі ў рэальны свет, дзе людзі пакутуюць, і нікога не хвалююць вашы заявы аб бяспецы, заснаваныя на вібрацыях.
💸 OpenAI будзе тэставаць рэкламу ў ChatGPT, каб павялічыць прыбытак ↗
OpenAI заяўляе, што пачне тэставаць рэкламу ў ChatGPT для некаторых карыстальнікаў, імкнучыся прыцягнуць большы прыбытак для пакрыцця неверагодных выдаткаў на стварэнне і працу гэтых сістэм. Лінія кампаніі заключаецца ў тым, што рэклама не будзе змяняць адказы або перадаваць дадзеныя карыстальнікаў маркетолагам.
Тым не менш, рэклама ў чаце-памочніку — гэта своеасаблівы псіхалагічны зрух — як быццам ваш бібліятэкар раптам апранае значок спонсара. Нават калі гэта «толькі пэўныя месцы размяшчэння», людзі гэта заўважаюць.
Аналітыкі ўжо намякаюць на відавочную рызыку: калі інтэрфейс будзе шумным або скампраметаваным, карыстальнікі могуць і будуць блукаць у іншым месцы.
🚫 Заканадаўчы орган штата Вашынгтон разглядае законапраект, накіраваны на рэгуляванне выкарыстання штучнага інтэлекту ў дзяржаўных школах ↗
Заканадаўцы штата Вашынгтон прапануюць законапраект, які абмяжуе выкарыстанне штучнага інтэлекту ў дзяржаўных школах, з акцэнтам на такія рэчы, як дысцыпліна, дадзеныя вучняў і аўтаматызаванае прыняцце рашэнняў. Трывога тут не абстрактная — гаворка ідзе пра тое, што дзеці апынуліся ў абмежаваннях непразрыстых сістэм.
Гэта таксама практычнае прызнанне: «штучны інтэлект у адукацыі» не абавязкова карысны, а часам гэта проста назіранне ў плашчы. Гэта можа гучаць жорстка... але вы зразумелі, пра што я.
Калі гэта будзе прынята, гэта, верагодна, паўплывае на тое, што пастаўшчыкі могуць прадаваць акругам і як школы апраўдваюць любыя працоўныя працэсы на базе штучнага інтэлекту, якія тычацца вучняў.
📜 Заканадаўца штата Аклахома падае тры законапраекты па рэгуляванні штучнага інтэлекту ↗
Дэпутат ад штата Аклахома падаў тры законапраекты, накіраваныя на ўкараненне мер бяспекі адносна выкарыстання штучнага інтэлекту ў штаце. Тэма — абмежаванні — устанаўленне некаторых правілаў адносна таго, дзе і як можна выкарыстоўваць штучны інтэлект.
Такія крокі на ўзроўні штатаў могуць здавацца дробязямі ў параўнанні з буйнымі федэральнымі або еўрапейскімі структурамі, але яны хутка назапашваюцца — як снежныя гурбы з паперамі. «Здаровы сэнс» аднаго штата ператвараецца ў галаўны боль выканання патрабаванняў іншага штата.
Акрамя таго, сам факт падачы некалькіх законапраектаў сігналізуе пра тое ж самае, пра што ўсе ціха думаюць: штучны інтэлект ужо знаходзіцца там, дзе яго, магчыма, не павінна быць, і ніхто не хоча рэагаваць апошнім.
🚨 Генеральны пракурор Мічыгана раскрытыкаваў Ілона Маска за «востры рэжым» Грок ↗
Генеральны пракурор штата Мічыган папярэджвае Маска і xAI аб функцыі Grok, якая нібыта выкарыстоўваецца для стварэння незаконнай глыбокай парнаграфіі. Паведамленне гучыць прыкладна так: адключыце гэту функцыю, інакш мы будзем нарошчваць абставіны.
Гэта знаходзіцца прама на непрыемным скрыжаванні генератыўных магчымасцей і злоўжыванняў у маштабе — і гэта не зусім тэарэтычная шкода. Як толькі інструмент спрашчае нешта, Інтэрнэт будзе правяраць яго найгоршым магчымым чынам.
Калі ўсё больш штатаў пачнуць займаць такую пазіцыю, кампаніі могуць выявіць, што «рэзкія асаблівасці» перастаюць быць адметнай рысай прадукту і пачынаюць ператварацца ў сур'ёзную перашкоду.
Часта задаваныя пытанні
Чаго патрабуе Ілон Маск у пазове OpenAI і Microsoft?
Ён патрабуе да 134 мільярдаў долараў за тое, што ён называе «неправамерным прыбыткам», звязаным з OpenAI і Microsoft. Асноўны аргумент выглядае наступным чынам: ён дапамог на ранняй стадыі, кампаніі атрымалі велізарную карысць, і яму павінны заплаціць адпаведна. OpenAI і Microsoft адмаўляюцца ад пазову аб кампенсацыі шкоды. Спрэчка рухаецца да судовага разбору, што павышае стаўкі для ўсіх удзельнікаў.
Ці ёсць у Маска рэальны шлях атрымання «неправамерных прыбыткаў»?
У такіх выпадках цэнтральнае пытанне заключаецца ў тым, ці пагодзіцца суд з тым, што прыбытак быў атрыманы неправамерна, і што пазоўнік мае права на канкрэтную кампенсацыю. OpenAI і Microsoft аспрэчваюць пазоў аб кампенсацыі шкоды, што сведчыць аб тым, што яны лічаць юрыдычную тэорыю — або лічбы — неабгрунтаванымі. Гэтыя спрэчкі часта бываюць перагружанымі дакументамі і тэхнічнымі. Каляндар судовых пасяджэнняў таксама можа павялічыць ціск на ўрэгуляванне або, прынамсі, звузіць прэтэнзіі.
Чаму Каліфорнія расследуе інструмент для рэдагавання малюнкаў са штучным інтэлектам з-за сэксуальнага кантэнту?
Генеральны пракурор Каліфорніі разглядае інструмент для рэдагавання малюнкаў са штучным інтэлектам, звязаны з кампаніяй Маска, пасля «лавіны» скаргаў на сэксуальны кантэнт. Увага сканцэнтравана на практыцы: што можа генераваць інструмент, наколькі лёгка ён можа гэта зрабіць і ці перасякае гэта межы закону штата. Гэта знаёмая заканамернасць, калі магчымасці пераўзыходзяць абмежаванні. Кантроль рэгулятараў, як правіла, узмацняецца, калі шкода здаецца маштабаванай і паўтаральнай.
Як будзе працаваць рэклама ў ChatGPT і ці будзе яна ўплываць на адказы?
OpenAI заяўляе, што пачне тэставаць рэкламу ў ChatGPT для некаторых карыстальнікаў, галоўным чынам для таго, каб пакрыць высокія выдаткі на стварэнне і працу сістэм штучнага інтэлекту. Заяўленая пазіцыя кампаніі заключаецца ў тым, што рэклама не будзе змяняць адказы, а дадзеныя карыстальнікаў не будуць перадавацца маркетолагам. Тым не менш, рэклама ўнутры чат-памочніка можа ўспрымацца як зрух даверу. Аналітыкі ўжо паведамляюць пра рызыку таго, што больш шумны вопыт можа падштурхнуць карыстальнікаў да іншых дзеянняў.
Якія віды рэгулявання штучнага інтэлекту разглядаюць Вашынгтон і Аклахома?
У штаце Вашынгтон заканадаўцы разгледзелі законапраект, накіраваны на рэгуляванне выкарыстання штучнага інтэлекту ў дзяржаўных школах, асабліва ў пытаннях дысцыпліны, дадзеных вучняў і аўтаматызаванага прыняцця рашэнняў. У штаце Аклахома ёсць тры прапанаваныя законапраекты, накіраваныя на даданне гарантый адносна таго, дзе і як можна выкарыстоўваць штучны інтэлект. Рэгуляванне штучнага інтэлекту на ўзроўні штата можа здацца фрагментарным, але яно можа хутка назапашвацца. Для пастаўшчыкоў і агенцтваў гэта часта прыводзіць да складанасці ў захаванні патрабаванняў у розных юрысдыкцыях.
Што такое «востры рэжым» Грока, і чаму ў гэтым удзельнічае генеральны пракурор Мічыгана?
Генеральны пракурор штата Мічыган папярэджвае Маска і xAI аб функцыі Grok, якая, як апісваецца, выкарыстоўваецца для стварэння незаконнай глыбокай парнаграфіі. Паведамленне сфармулявана наступным чынам: адключыце гэту магчымасць, інакш вам давядзецца сутыкнуцца з эскалацыяй. Гэта падкрэслівае, як «рэзкія» генератыўныя функцыі могуць стаць юрыдычнай адказнасцю, калі яны спрашчаюць вытворчасць шкоднай прадукцыі ў вялікіх маштабах. Калі больш штатаў зоймуць падобную пазіцыю, рызыка правапрымянення можа хутка ўзрасці.