Навіны штучнага інтэлекту, 7 сакавіка 2026 г

Агляд навін па штучным інтэлекце: 7 сакавіка 2026 г

🤖 Кіраўнік апаратнага забеспячэння OpenAI сыходзіць у адстаўку пасля здзелкі з Пентагонам

Кейтлін Каліноўскі, кіраўнік аддзела абсталявання і робататэхнікі OpenAI, сышла ў адстаўку пасля заключэння здзелкі з Пентагонам, заявіўшы, што гэты крок не атрымаў дастатковага ўнутранага абмеркавання, перш чым мадэлі былі дазволены для выкарыстання ў класіфікаваных абаронных сетках. Яе галоўная заклапочанасць была даволі відавочнай — кантроль чалавека, межы назірання і рызыка занадта хуткага распаўсюджвання смяротнай аўтаноміі. ( Reuters )

OpenAI сцвярджае, што пагадненне ўключае дадатковыя гарантыі і па-ранейшаму забараняе ўнутранае назіранне і выкарыстанне аўтаномнай зброі. Тым не менш, адстаўка робіць усё гэта не столькі плаўным абнаўленнем палітыкі, колькі тым, што пажарныя дзверы зачыняюцца пасярод сустрэчы. ( Reuters )

🏗️ Oracle і OpenAI адмовіліся ад плана пашырэння цэнтраў апрацоўкі дадзеных у Тэхасе, паведамляе Bloomberg News

Паведамляецца, што Oracle і OpenAI адмовіліся ад планаў пашырэння свайго вялікага цэнтра апрацоўкі дадзеных штучнага інтэлекту ў горадзе Абілін, штат Тэхас, пасля таго, як перамовы аб фінансаванні зацягнуліся, а патрэбы OpenAI ў вылічэннях змяніліся. Гэты аб'ект быў часткай больш шырокага праекта па стварэнні інфраструктуры Stargate, таму гэта далёка не дробязь. ( Reuters )

Існуючы кампус працягвае працаваць, і кампаніі заяўляюць, што будаўніцтва больш шырокага шматгігаватнага комплексу працягваецца ў іншых месцах. У той жа час закінутае пашырэнне можа адкрыць шлях для Meta, якая, як паведамляецца, абмяркоўвала магчымасць здачы пляцоўкі ў арэнду. Інфраструктура штучнага інтэлекту працягвае развівацца, як мокры цэмент — цяжкая, дарагая і ніколі да канца не ўладкаваная. ( Reuters )

⚖️ Пентагон прызнаў Anthropic рызыкай для ланцужка паставак

Пентагон афіцыйна прызнаў Anthropic рызыкай для ланцужкоў паставак, забараніўшы выкарыстанне Claude ў кантрактах Міністэрства абароны пасля таго, як кампанія адмовілася аслабіць меры бяспекі супраць аўтаномнай зброі і масавага назірання. Гэта цэнтр барацьбы за закупкі, якая ператварылася ў значна больш маштабную барацьбу за каштоўнасці. ( Reuters )

«Anthropic» сцвярджае, што гэты крок не мае юрыдычнага абгрунтавання, і плануе аспрэчыць яго ў судзе. Гэта незвычайна сур'ёзная класіфікацыя для амерыканскай лабараторыі штучнага інтэлекту, і яна апынулася ў цэнтры больш шырокага расколу наконт таго, ці павінны кампаніі, якія працуюць памежнай мадэлі, уключаць больш строгія правілы ў абаронныя кантракты, ці давяраць існуючаму заканадаўству... да чаго не ўсе гатовыя. ( Reuters )

💬 Meta дазволіць канкурэнтам са штучным інтэлектам карыстацца WhatsApp у спробе прадухіліць дзеянні ЕС

Meta заяўляе, што дазволіць канкурэнтам выкарыстоўваць чат-боты са штучным інтэлектам у WhatsApp у Еўропе на працягу года з выкарыстаннем Business API пасля ціску з боку антыманапольных рэгулятараў ЕС. Канкурэнты скардзіліся, што Meta фактычна блакуе іх, аддаючы перавагу ўласнаму памочніку — рэзкая дэталь, улічваючы тое, наколькі цэнтралізаванае размеркаванне стала ў сферы штучнага інтэлекту. ( Reuters )

Загвоздка ў тым, што доступ платны, і крытыкі сцвярджаюць, што гэта ўсё роўна ставіць меншых канкурэнтаў у нявыгаднае становішча. Рэгулятары вырашаюць, ці дастаткова гэтай саступкі, таму гэта гучыць не як мірная дамова, а хутчэй як кнопка паўзы, загорнутая ў паперы. ( Reuters )

📜 xAI прайграе спробу спыніць закон Каліфорніі аб раскрыцці дадзеных аб штучным інтэлекце

Суд над xAI прайграў спробу заблакаваць закон Каліфорніі, які патрабуе ад кампаній, якія займаюцца штучным інтэлектам, раскрываць больш інфармацыі аб дадзеных, якія выкарыстоўваюцца для навучання іх мадэляў. Адмова суда спыніць дзеянне закона азначае, што xAI цяпер сутыкаецца з такім жа ціскам на празрыстасць, якога іншыя распрацоўшчыкі мадэляў спрабавалі, часам нязграбна, пазбегнуць. ( Reuters )

Гэта важна, бо спрэчкі за навучальныя дадзеныя больш не з'яўляюцца толькі акадэмічнымі ці звязанымі з аўтарскімі правамі — яны становяцца праблемай захавання рэгулявання. Для xAI, які ўжо сутыкаецца з паўторнымі спрэчкамі аб бяспецы вакол Grok, гэта дадае яшчэ адзін цяжар у выглядзе рэгулятара. ( Reuters )

Часта задаваныя пытанні

Чаму кіраўнік аддзела абсталявання і робататэхнікі OpenAI сышоў у адстаўку пасля здзелкі з Пентагонам?

Кейтлін Каліноўскі сышла з пасады, бо лічыла, што рашэнне аб дазволе мадэляў для класіфікаваных абаронных сетак не атрымала дастатковага ўнутранага абмеркавання. Яе занепакоенасць была звязана з кантролем чалавека, абмежаваннямі назірання і рызыкай занадта хуткага распаўсюджвання смяротнай аўтаноміі. OpenAI заявіла, што пагадненне ўсё яшчэ забараняе ўнутранае назіранне і выкарыстанне аўтаномнай зброі, але адстаўка сведчыць аб тым, што ўнутраная дыскусія не была цалкам вырашана.

Што насамрэч азначае тое, што Пентагон называе Anthropic рызыкай для ланцужкоў паставак?

Гэта азначае, што выкарыстанне Claude ў кантрактах Міністэрства абароны будзе абмежавана, што з'яўляецца сур'ёзнай перашкодай для закупак. Згодна з артыкулам, спрэчка сканцэнтравана на адмове Anthropic аслабіць гарантыі, звязаныя з аўтаномнай зброяй і масавым назіраннем. Anthropic сцвярджае, што гэтае пазначэнне не мае юрыдычнай сілы, і плануе аспрэчыць яго, таму гэта можа стаць як судовай справай, так і палітычным тэстам.

Чаму адмененае пашырэнне цэнтра апрацоўкі дадзеных у Тэхасе мае значэнне ў навінах індустрыі штучнага інтэлекту?

Адмова ад пашырэння Abilene мае значэнне, бо яна была часткай больш шырокага праекта па развіцці інфраструктуры Stargate і звязвала яе з доўгатэрміновым планаваннем вылічэнняў у галіне штучнага інтэлекту. Агенцтва Reuters паведамляе, што існуючы кампус усё яшчэ працуе, але затрымкі з фінансаваннем і змяненне патрэб у вылічэннях прывялі да таго, што Oracle і OpenAI адмовіліся ад пашырэння. Гэта таксама паказвае, як хутка могуць змяніцца асноўныя стаўкі на інфраструктуру штучнага інтэлекту, нават калі больш шырокае будаўніцтва працягваецца ў іншым месцы.

Чаму Meta дазваляе канкуруючым чат-ботам са штучным інтэлектам усталёўваць у WhatsApp у Еўропе?

Meta зрабіла гэты крок пасля ціску з боку антыманапольных рэгулятараў ЕС і скаргаў на тое, што кампанія аддае перавагу ўласнаму памочніку, абмяжоўваючы пры гэтым канкурэнтаў. Доступ часовы і ажыццяўляецца праз Business API, таму гэта не з'яўляецца палітыкай цалкам адкрытых дзвярэй. Плата ўсё яшчэ дзейнічае, што азначае, што дробныя канкурэнты могуць сутыкнуцца з практычнымі недахопамі нават пасля саступкі.

Што азначае для xAI закон Каліфорніі аб раскрыцці дадзеных аб навучанні штучнаму інтэлекту?

Адмова суда заблакаваць закон азначае, што цяпер xAI вымушаны сутыкацца з дадатковымі патрабаваннямі празрыстасці адносна навучальных дадзеных. Гэта важна, бо распрацоўшчыкі мадэляў часта спрабавалі пазбегнуць падрабязнага раскрыцця інфармацыі, асабліва калі крыніцы дадзеных з'яўляюцца канфідэнцыйнымі або аспрэчваюцца. На практыцы навучальныя дадзеныя становяцца актыўным пытаннем адпаведнасці, а не застаюцца прадметам дыскусій аб даследчых нормах або рызыцы аўтарскага права.

Які галоўны вынік навін індустрыі штучнага інтэлекту гэтага тыдня?

Агульнай рысай з'яўляецца тое, што штучны інтэлект фарміруецца не столькі толькі запускамі прадуктаў, колькі кіраваннем, інфраструктурай і рэгуляваннем. Партнёрства ў галіне абароны стварае ўнутраныя канфлікты, пашырэнне вылічальнай тэхнікі аказваецца дарагім і няўстойлівым, а рэгулятары ўзмацняюць ціск на доступ і раскрыццё інфармацыі. У артыкуле адзначаецца, што галіна вымушана рабіць свае кампрамісы больш бачнымі ў дачыненні да OpenAI, Anthropic, Meta і xAI.

Учорашнія навіны пра штучны інтэлект: 6 сакавіка 2026 г

Знайдзіце найноўшы штучны інтэлект у афіцыйнай краме памочнікаў штучнага інтэлекту

Пра нас

Назад да блога