🧑⚖️ Аўтары ўцягваюць xAI, OpenAI, Google і іншых у новую барацьбу за аўтарскія правы
Джон Кэрыру (прадстаўнік Theranos) і пяць іншых пісьменнікаў падалі ў суд на вялікую колькасць кампаній, якія займаюцца штучным інтэлектам, сцвярджаючы, што іх кнігі выкарыстоўваліся — без дазволу — для навучання чат-ботаў.
Гэта таксама не калектыўны пазоў, і гэта частка задумы. Аўтары кажуць, што калектыўныя пазовы звычайна заканчваюцца пагадненнямі, дзе асобныя стваральнікі атрымліваюць… крошкі, таму яны выбіраюць шлях, які дазваляе ім настойваць больш.
Яны таксама паказваюць на ранейшыя пагадненні ў свеце штучнага інтэлекту, звязаныя з кнігамі, як на павучальную гісторыю — відавочны сігнал «вось чаму мы робім гэта па-іншаму».
🔗 Чытаць далей
⚡ Alphabet шукае чыстую энергію — бо штучны інтэлект спажывае электрычнасць
Alphabet пагадзілася набыць Intersect, распрацоўшчыка чыстай энергіі, за кошт каля 4,75 мільярда долараў (наяўнымі плюс узятая запазычанасць), што акуратна ўпісваецца ў барацьбу за энергаёмістасць па меры павелічэння колькасці цэнтраў апрацоўкі дадзеных.
Падтэкст застаецца рэзкім: для навучання мадэляў і пастаяннага вываду патрэбныя не толькі чыпы — яны патрабуюць неверагоднай колькасці стабільнай электрычнасці. «Стратэгія штучнага інтэлекту» працягвае спаўзаць у «стратэгію энергіі», што вельмі падобна на… прамысловую рэвалюцыю, толькі з графічнымі працэсарамі.
Некаторыя аперацыйныя актывы знаходзяцца па-за структурай, але Alphabet адзначыў такія праекты, як вялікія сістэмы захоўвання дадзеных, размешчаныя паблізу цэнтраў апрацоўкі дадзеных Google — гэта будаўніцтва, якое можна падключыць непасрэдна да сістэмы.
🔗 Чытаць далей
🕵️ OpenAI сцвярджае, што імгненнае ўвядзенне агентаў можа ніколі цалкам не знікнуць
OpenAI сцвярджае, што хуткае ўвядзенне кода для агентаў у стылі браўзера можа быць вечнай праблемай — хутчэй спамам ці фішынгам, чым тым, што можна «вырашыць» адзін раз. Гэта не супакойвае, але гэта дзіўна шчыра.
Яны апісалі абнаўленні бяспекі для ChatGPT Atlas, у тым ліку мадэль агента, навучанага з дапамогай шкоднасных метадаў, і ўзмацненне ахоўных парогаў, пасля таго, як унутраная аўтаматызаваная камандная праца выявіла новы клас атак.
Падразуменне чытаецца як «пастаяннае выпрабаванне ціскам, хуткія патчы, паўтарэнне». Гэта як вучыць сабаку-ахоўніка распазнаваць новую маскіроўку кожны тыдзень... толькі маскіроўка — гэта проста тэкст, які ляжыць на вэб-старонцы.
🔗 Чытаць далей
🎮 Indie Game Awards адбірае трафеі за генератыўнае выкарыстанне штучнага інтэлекту
Прэмія Indie Game Awards адклікала ўзнагароды «Гульня года» і «Дэбютная гульня» ў Clair Obscur: Expedition 33 пасля таго, як стала вядома, што падчас распрацоўкі выкарыстоўваўся генератыўны штучны інтэлект, нягледзячы на папярэднюю дамоўленасць аб тым, што ніякага пакалення штучнага інтэлекту не выкарыстоўвалася. Ой.
Нягледзячы на тое, што распрацоўшчыкі, як паведамляецца, выправілі згаданыя рэсурсы, група ўзнагароджання прытрымлівалася строгай палітыкі непрыдатнасці і перадала намінацыю «Гульня года» Blue Prince (пры гэтым выдавец публічна падкрэсліў «без штучнага інтэлекту»).
Chantey узнагароды Indie Vanguard з- за яе сувязі з ModRetro (і, ускосна, сувязі з Anduril). Такім чынам, важна не толькі «штучны інтэлект ці не», але і «з кім вы звязаны»... ці так здаецца.
🔗 Чытаць далей
🏛️ Указ Трампа мае на мэце абмежаваць правілы штучнага інтэлекту ў кожным штаце
Новы выканаўчы загад усталёўвае нацыянальную палітыку ў галіне штучнага інтэлекту з заяўленай мэтай умацавання «дамінавання ЗША ў галіне штучнага інтэлекту» пры захаванні «мінімальнай» рэгуляцыйнай нагрузкі. Гэтая фармулёўка мае вялікую вагу.
Адзін з важных сігналаў — гэта настрой на прэвентыўныя меры: яны разглядаюцца як спосаб пазбегнуць разнастайнасці правілаў штучнага інтэлекту ў кожным штаце, асабліва пасля таго, як федэральныя намаганні па прэвентыўных мерах у іншых месцах не ўвянчаліся поспехам.
Калі вы пастаўляеце прадукты штучнага інтэлекту па ўсёй краіне, гэтая ідэя, верагодна, выглядае элегантна. Калі ж ваш штат спрабуе рэгуляваць хутчэй, чым Вашынгтон, гэта, верагодна, выглядае як абмежаванне. Проста — але і не проста.
🔗 Чытаць далей