Навіны штучнага інтэлекту, 2 сакавіка 2026 г

Агляд навін па штучным інтэлекце: 2 сакавіка 2026 г

🧠 Nvidia ўкладвае 4 мільярды долараў у фатоніку, каб паскорыць распрацоўку чыпаў штучнага інтэлекту для цэнтраў апрацоўкі дадзеных

Nvidia заявіла, што ўкладзе па 2 мільярды долараў у Lumentum і Coherent — абодва буйныя кампаніі ў галіне фатонікі, — каб забяспечыць апярэджанне абсталявання для цэнтраў апрацоўкі дадзеных у плане «хутчэйшага вываду дадзеных і большай прапускной здольнасці».

Ідэя простая: калі вы можаце перадаваць дадзеныя з дапамогай святла (фатонікі), а не толькі электрычных сігналаў, вы можаце атрымаць большую прадукцыйнасць ад усяго стэка штучнага інтэлекту. Не гламурна, але менавіта сантэхніка вырашае, хто пераможа.

🛡️ OpenAI абвяшчае «чырвоныя лініі» для разгортвання штучнага інтэлекту ў Пентагоне

OpenAI вызначыў выразныя «забароненыя» зоны для сваёй ваеннай працы — ніякага масавага ўнутранага назірання, ніякага кіравання аўтаномнай зброяй і ніякіх аўтаматызаваных рашэнняў з высокімі стаўкамі, такіх як сістэмы «сацыяльнага крэдыту».

Яны таксама кажуць, што разгортванне ажыццяўляецца толькі ў воблаку (не на перыферыі), захоўвае стэк бяспекі OpenAI і ўключае ў працэс правераны персанал OpenAI. Гэта гучыць крыху як «даверцеся нам, і вось фармулёўка кантракту» — што, шчыра кажучы, лепш, чым гарантыі толькі даверу.

🏛️ Заканадаўцы штата Вашынгтон прасоўваюць абмежаванні на выкарыстанне штучнага інтэлекту для чат-ботаў і выяўлення кантэнту

Заканадаўцы штата Вашынгтон прасоўваюць законапраекты, накіраваныя на дзве кропкі ціску: чат-боты (асабліва для непаўналетніх) і медыя, створаныя штучным інтэлектам, якія становіцца ўсё цяжэй выявіць.

Адна з прапаноў патрабуе ад чат-ботаў рэгулярна нагадваць карыстальнікам, што яны размаўляюць са штучным інтэлектам, а таксама дадае функцыю выяўлення суіцыдальных думак і іншыя меры бяспекі. Іншая — уводзіць такія меры раскрыцця інфармацыі, як убудаваныя вадзяныя знакі ў выявы, аўдыё і відэа, створаныя або змененыя штучным інтэлектам — проста ў тэорыі, складана на практыцы.

Вялікабрытанія абвясціла аб закліку да збору дадзеных аб энергетыцы для штучнага інтэлекту

Урад Вялікабрытаніі абвясціў конкурс доказаў, прысвечаных наборам дадзеных, звязаным з энергетыкай, дзе лепшы доступ можа дапамагчы распрацоўшчыкам штучнага інтэлекту палепшыць дэкарбанізацыю, энергетычную бяспеку або даступнасць.

Гэта відавочна аформлена як крок па зборы доказаў (а не абяцаная змена палітыкі) і адпавядае рэальнасці: некаторыя дадзеныя нельга перадаваць, таму правільным шляхам могуць быць сінтэтычныя дадзеныя або падыходы, заснаваныя на дазволах. Відавочна, доступ да дадзеных — гэта новая барацьба «хто валодае картай».

🤝 TechCrunch: Кампаніі і ўрады, якія займаюцца штучным інтэлектам, усё яшчэ не маюць зручнага кіраўніцтва па выкарыстанні

TechCrunch даследаваў няёмкую розніцу паміж «лабараторыямі штучнага інтэлекту, якія становяцца нацыянальнай інфраструктурай» і «ніхто спачатку не дамовіўся пра правілы». У артыкуле падкрэсліваецца, як грамадская рэакцыя, як правіла, засяроджваецца на назіранні і аўтаматызаваным забойстве — двух кашмарах, якія ніколі не пакідаюць пакой.

Сутнасць такая: лабараторыі працягваюць спрабаваць навязаць палітыку абраным лідарам... але яны ж самі пастаўляюць інструменты, таму гэтая хітрасць працуе толькі пэўны час. Гэта як настойваць на тым, што ты не вінаваты ў вогнішчы, актыўна прадаючы запалкі — ці, прынамсі, так здаецца.

Часта задаваныя пытанні

Чаму Nvidia інвесціруе мільярды ў фатоніку для чыпаў штучнага інтэлекту для цэнтраў апрацоўкі дадзеных?

Nvidia робіць стаўку на тое, што фатоніка можа перамяшчаць дадзеныя паміж цэнтрамі апрацоўкі дадзеных хутчэй і з большай прапускной здольнасцю, чым чыста электрычныя злучэнні. Перадумова заключаецца ў тым, што лепшая «сантэхніка» паміж чыпамі, стойкамі і сістэмамі можа павысіць агульную прадукцыйнасць штучнага інтэлекту, асабліва па меры маштабавання рабочых нагрузак вываду. Укладанне сур'ёзнага капіталу ў буйных гульцоў фатонікі сведчыць аб тым, што гэта ператвараецца ў стратэгічную інфраструктуру, а не ў нішавае дадатак.

Як фатоніка насамрэч паскарае сістэмы штучнага інтэлекту ў параўнанні з электрычнымі злучэннямі?

Фатоніка выкарыстоўвае святло для перадачы дадзеных, што можа палегчыць праблему вузкіх месцаў, калі сістэмам неабходна перадаваць велізарныя аб'ёмы інфармацыі. У многіх стэках штучнага інтэлекту прадукцыйнасць залежыць не толькі ад вылічальнага чыпа, але і ад таго, наколькі хутка дадзеныя могуць перадавацца паміж кампанентамі. Распаўсюджанай схемай з'яўляюцца аптычныя злучэнні для высокапрапускных злучэнняў, пры гэтым электрычныя сігналы захоўваюцца там, дзе яны прасцейшыя або таннейшыя.

Што на практыцы азначае «хутчэйшы вывад і большая прапускная здольнасць» для цэнтраў апрацоўкі дадзеных са штучным інтэлектам?

Гэта сведчыць пра зрух, калі эфектыўнае абслугоўванне мадэляў мае гэтак жа значэнне, як і іх навучанне. Хутчэйшы вывад азначае хуткае атрыманне адказаў пры вялікім попыце, а большая прапускная здольнасць азначае, што паскаральнікі могуць быць загружаны без чакання. У многіх канвеерах абмежаванні сеткі і ўзаемасувяз становяцца абмежаваннем, таму паляпшэнне перамяшчэння дадзеных можа адкрыць значныя перавагі, нават калі вылічальная тэхналогія ўжо магутная.

Якія «чырвоныя лініі» OpenAI для разгортвання штучнага інтэлекту ў Пентагоне?

OpenAI апісвае відавочныя забароненыя зоны, такія як масавае ўнутранае назіранне, кіраванне аўтаномнай зброяй і аўтаматызаваныя рашэнні з высокімі стаўкамі, падобныя на сістэмы «сацыяльнага крэдыту». Яны таксама апісваюць разгортванне як выключна воблачнае, з захаваннем мер бяспекі і дазволеным персаналам. Як правіла, гэтыя абмежаванні прызначаны для звужэння выпадкаў выкарыстання і зніжэння рызыкі злоўжывання, пры гэтым забяспечваючы абмежаваную колькасць дзяржаўных прыкладанняў.

Якія абмежаванні штучнага інтэлекту прапануюць заканадаўцы штата Вашынгтон для чат-ботаў і СМІ, створаных з дапамогай штучнага інтэлекту?

Апісаныя прапановы сканцэнтраваны на дзвюх галінах: празрыстасць і бяспека чат-ботаў, а таксама раскрыццё інфармацыі аб кантэнце, створаным або змененым штучным інтэлектам. Адна з канцэпцый патрабуе ад чат-ботаў рэгулярна нагадваць карыстальнікам, што яны ўзаемадзейнічаюць са штучным інтэлектам, і ўключаць функцыі бяспекі, такія як выяўленне суіцыдальных думак. Іншая накіравана на механізмы раскрыцця інфармацыі, такія як убудаваныя вадзяныя знакі ў сінтэтычныя носьбіты інфармацыі, што можа быць простым у тэорыі, але складаным у рэалізацыі.

Як наборы дадзеных аб энергетыцы ў Вялікабрытаніі для штучнага інтэлекту могуць паўплываць на дэкарбанізацыю і энергетычную бяспеку?

Заклік Вялікабрытаніі да прадстаўлення доказаў сфармуляваны як крок да вызначэння таго, дзе лепшы доступ да набораў дадзеных, звязаных з энергетыкай, можа дапамагчы штучнаму інтэлекту палепшыць такія вынікі, як дэкарбанізацыя, бяспека або даступнасць. На практыцы многія карысныя наборы дадзеных маюць абмежаванні на сумеснае выкарыстанне, таму могуць спатрэбіцца такія падыходы, як сінтэтычныя дадзеныя, доступ на аснове дазволаў або кантраляванае асяроддзе. Гэта часта становіцца пытаннем «хто можа атрымаць доступ да карты» для інавацый і кіравання.

Учорашнія навіны пра штучны інтэлект: 1 сакавіка 2026 г

Знайдзіце найноўшы штучны інтэлект у афіцыйнай краме памочнікаў штучнага інтэлекту

Пра нас

Назад да блога