Навіны штучнага інтэлекту, 17 студзеня 2026 г

Агляд навін па штучным інтэлекце: 17 студзеня 2026 г

⚖️ Маск хоча атрымаць ад OpenAI і Microsoft да 134 мільярдаў долараў

Ілан Маск цяпер разлічвае на сапраўды мульцяшную кампенсацыю, сцвярджаючы, што мае права на велізарны «неправамерны прыбытак», звязаны з OpenAI і Microsoft. У заяве, па сутнасці, гаворыцца: я дапамагаў на ранняй стадыі, вы атрымалі велізарны прыбытак, заплаціце.

OpenAI і Microsoft адхіляюць пазоў аб кампенсацыі шкоды, і ўся барацьба схіляецца да таго, што судовы расклад ужо выглядае... пікантным. У ім менш «драмы ў лабараторыі для зануд» і больш «карпаратыўнага разводу з дапамогай электронных табліц»

Калі не што іншае, гэта напамін пра тое, што бум штучнага інтэлекту — гэта не толькі мадэлі і эталонныя паказчыкі, але і судовыя пазовы, крыўды і вельмі дарагая папяровая апрацоўка.

🕵️ Каліфорнія расследуе дзейнасць кампаніі Ілона Маска па развіцці штучнага інтэлекту пасля лавіны скаргаў на сэксуальны кантэнт

Генеральны пракурор Каліфорніі расследуе, ці перасякае інструмент для рэдагавання малюнкаў са штучным інтэлектам, звязаны з кампаніяй Маска, межы заканадаўства пасля патоку скаргаў на сэксуальны кантэнт. Асноўная ўвага надаецца адназначнаму: што генеруецца, як лёгка і ці парушае гэта заканадаўства штата.

Назіраецца знаёмая заканамернасць — магутныя інструменты стварэння сутыкаюцца са слабымі бар'ерамі, а потым з'яўляюцца рэгулятары з буферам абмену і нахмураным выразам твару. Часам гэты нахмураны выраз ператвараецца ў прымус, ці, прынамсі, так здаецца.

Гэта таксама пераносіць «адказнае разгортванне» з маркетынгавай пляцоўкі ў рэальны свет, дзе людзі пакутуюць, і нікога не хвалююць вашы заявы аб бяспецы, заснаваныя на вібрацыях.

💸 OpenAI будзе тэставаць рэкламу ў ChatGPT, каб павялічыць прыбытак

OpenAI заяўляе, што пачне тэставаць рэкламу ў ChatGPT для некаторых карыстальнікаў, імкнучыся прыцягнуць большы прыбытак для пакрыцця неверагодных выдаткаў на стварэнне і працу гэтых сістэм. Лінія кампаніі заключаецца ў тым, што рэклама не будзе змяняць адказы або перадаваць дадзеныя карыстальнікаў маркетолагам.

Тым не менш, рэклама ў чаце-памочніку — гэта своеасаблівы псіхалагічны зрух — як быццам ваш бібліятэкар раптам апранае значок спонсара. Нават калі гэта «толькі пэўныя месцы размяшчэння», людзі гэта заўважаюць.

Аналітыкі ўжо намякаюць на відавочную рызыку: калі інтэрфейс будзе шумным або скампраметаваным, карыстальнікі могуць і будуць блукаць у іншым месцы.

🚫 Заканадаўчы орган штата Вашынгтон разглядае законапраект, накіраваны на рэгуляванне выкарыстання штучнага інтэлекту ў дзяржаўных школах

Заканадаўцы штата Вашынгтон прапануюць законапраект, які абмяжуе выкарыстанне штучнага інтэлекту ў дзяржаўных школах, з акцэнтам на такія рэчы, як дысцыпліна, дадзеныя вучняў і аўтаматызаванае прыняцце рашэнняў. Трывога тут не абстрактная — гаворка ідзе пра тое, што дзеці апынуліся ў абмежаваннях непразрыстых сістэм.

Гэта таксама практычнае прызнанне: «штучны інтэлект у адукацыі» не абавязкова карысны, а часам гэта проста назіранне ў плашчы. Гэта можа гучаць жорстка... але вы зразумелі, пра што я.

Калі гэта будзе прынята, гэта, верагодна, паўплывае на тое, што пастаўшчыкі могуць прадаваць акругам і як школы апраўдваюць любыя працоўныя працэсы на базе штучнага інтэлекту, якія тычацца вучняў.

📜 Заканадаўца штата Аклахома падае тры законапраекты па рэгуляванні штучнага інтэлекту

Дэпутат ад штата Аклахома падаў тры законапраекты, накіраваныя на ўкараненне мер бяспекі адносна выкарыстання штучнага інтэлекту ў штаце. Тэма — абмежаванні — устанаўленне некаторых правілаў адносна таго, дзе і як можна выкарыстоўваць штучны інтэлект.

Такія крокі на ўзроўні штатаў могуць здавацца дробязямі ў параўнанні з буйнымі федэральнымі або еўрапейскімі структурамі, але яны хутка назапашваюцца — як снежныя гурбы з паперамі. «Здаровы сэнс» аднаго штата ператвараецца ў галаўны боль выканання патрабаванняў іншага штата.

Акрамя таго, сам факт падачы некалькіх законапраектаў сігналізуе пра тое ж самае, пра што ўсе ціха думаюць: штучны інтэлект ужо знаходзіцца там, дзе яго, магчыма, не павінна быць, і ніхто не хоча рэагаваць апошнім.

🚨 Генеральны пракурор Мічыгана раскрытыкаваў Ілона Маска за «востры рэжым» Грок

Генеральны пракурор штата Мічыган папярэджвае Маска і xAI аб функцыі Grok, якая нібыта выкарыстоўваецца для стварэння незаконнай глыбокай парнаграфіі. Паведамленне гучыць прыкладна так: адключыце гэту функцыю, інакш мы будзем нарошчваць абставіны.

Гэта знаходзіцца прама на непрыемным скрыжаванні генератыўных магчымасцей і злоўжыванняў у маштабе — і гэта не зусім тэарэтычная шкода. Як толькі інструмент спрашчае нешта, Інтэрнэт будзе правяраць яго найгоршым магчымым чынам.

Калі ўсё больш штатаў пачнуць займаць такую ​​пазіцыю, кампаніі могуць выявіць, што «рэзкія асаблівасці» перастаюць быць адметнай рысай прадукту і пачынаюць ператварацца ў сур'ёзную перашкоду.

Часта задаваныя пытанні

Чаго патрабуе Ілон Маск у пазове OpenAI і Microsoft?

Ён патрабуе да 134 мільярдаў долараў за тое, што ён называе «неправамерным прыбыткам», звязаным з OpenAI і Microsoft. Асноўны аргумент выглядае наступным чынам: ён дапамог на ранняй стадыі, кампаніі атрымалі велізарную карысць, і яму павінны заплаціць адпаведна. OpenAI і Microsoft адмаўляюцца ад пазову аб кампенсацыі шкоды. Спрэчка рухаецца да судовага разбору, што павышае стаўкі для ўсіх удзельнікаў.

Ці ёсць у Маска рэальны шлях атрымання «неправамерных прыбыткаў»?

У такіх выпадках цэнтральнае пытанне заключаецца ў тым, ці пагодзіцца суд з тым, што прыбытак быў атрыманы неправамерна, і што пазоўнік мае права на канкрэтную кампенсацыю. OpenAI і Microsoft аспрэчваюць пазоў аб кампенсацыі шкоды, што сведчыць аб тым, што яны лічаць юрыдычную тэорыю — або лічбы — неабгрунтаванымі. Гэтыя спрэчкі часта бываюць перагружанымі дакументамі і тэхнічнымі. Каляндар судовых пасяджэнняў таксама можа павялічыць ціск на ўрэгуляванне або, прынамсі, звузіць прэтэнзіі.

Чаму Каліфорнія расследуе інструмент для рэдагавання малюнкаў са штучным інтэлектам з-за сэксуальнага кантэнту?

Генеральны пракурор Каліфорніі разглядае інструмент для рэдагавання малюнкаў са штучным інтэлектам, звязаны з кампаніяй Маска, пасля «лавіны» скаргаў на сэксуальны кантэнт. Увага сканцэнтравана на практыцы: што можа генераваць інструмент, наколькі лёгка ён можа гэта зрабіць і ці перасякае гэта межы закону штата. Гэта знаёмая заканамернасць, калі магчымасці пераўзыходзяць абмежаванні. Кантроль рэгулятараў, як правіла, узмацняецца, калі шкода здаецца маштабаванай і паўтаральнай.

Як будзе працаваць рэклама ў ChatGPT і ці будзе яна ўплываць на адказы?

OpenAI заяўляе, што пачне тэставаць рэкламу ў ChatGPT для некаторых карыстальнікаў, галоўным чынам для таго, каб пакрыць высокія выдаткі на стварэнне і працу сістэм штучнага інтэлекту. Заяўленая пазіцыя кампаніі заключаецца ў тым, што рэклама не будзе змяняць адказы, а дадзеныя карыстальнікаў не будуць перадавацца маркетолагам. Тым не менш, рэклама ўнутры чат-памочніка можа ўспрымацца як зрух даверу. Аналітыкі ўжо паведамляюць пра рызыку таго, што больш шумны вопыт можа падштурхнуць карыстальнікаў да іншых дзеянняў.

Якія віды рэгулявання штучнага інтэлекту разглядаюць Вашынгтон і Аклахома?

У штаце Вашынгтон заканадаўцы разгледзелі законапраект, накіраваны на рэгуляванне выкарыстання штучнага інтэлекту ў дзяржаўных школах, асабліва ў пытаннях дысцыпліны, дадзеных вучняў і аўтаматызаванага прыняцця рашэнняў. У штаце Аклахома ёсць тры прапанаваныя законапраекты, накіраваныя на даданне гарантый адносна таго, дзе і як можна выкарыстоўваць штучны інтэлект. Рэгуляванне штучнага інтэлекту на ўзроўні штата можа здацца фрагментарным, але яно можа хутка назапашвацца. Для пастаўшчыкоў і агенцтваў гэта часта прыводзіць да складанасці ў захаванні патрабаванняў у розных юрысдыкцыях.

Што такое «востры рэжым» Грока, і чаму ў гэтым удзельнічае генеральны пракурор Мічыгана?

Генеральны пракурор штата Мічыган папярэджвае Маска і xAI аб функцыі Grok, якая, як апісваецца, выкарыстоўваецца для стварэння незаконнай глыбокай парнаграфіі. Паведамленне сфармулявана наступным чынам: адключыце гэту магчымасць, інакш вам давядзецца сутыкнуцца з эскалацыяй. Гэта падкрэслівае, як «рэзкія» генератыўныя функцыі могуць стаць юрыдычнай адказнасцю, калі яны спрашчаюць вытворчасць шкоднай прадукцыі ў вялікіх маштабах. Калі больш штатаў зоймуць падобную пазіцыю, рызыка правапрымянення можа хутка ўзрасці.

Учорашнія навіны пра штучны інтэлект: 16 студзеня 2026 г

Знайдзіце найноўшы штучны інтэлект у афіцыйнай краме памочнікаў штучнага інтэлекту

Пра нас

Назад да блога