V drugi polovici avgusta naj bi kitajsko podjetje DeepSeek predstavilo svoj novi veliki jezikovni model R2. Poteza se umešča v širši cilj zmanjševanja odvisnosti od zahodne strojne opreme in krepitev domačega AI-ekosistema v sodelovanju s Huaweijem.

Po navedbah podjetja bo DeepSeek-R2 temeljil na naprednejši arhitekturi Mixture of Experts (MoE) z optimiziranim gatingom za učinkovitejšo inferenco. Model naj bi imel približno 1,2 bilijona parametrov (skoraj dvakrat več kot R1) in zaradi lokalnih optimizacij dosegal občutno nižje stroške učenja – v komunikaciji podjetja navajajo celo do 97 % v primerjavi z GPT-4. Pričakovati je tudi cenovno ugodnejši API, kar bi lahko dodatno premešalo trg LLM-jev in chatbotov.
Ključ do te strategije je učenje na čipih Huawei Ascend 910B. Huaweijev grozd, ovrednoten na 512 PFLOPS (FP16), naj bi dosegal okoli 91 % zmogljivosti Nvidia A100, kar zmanjšuje odvisnost od ameriških komponent.
Huawei obenem uvaja Unified Cache Manager (UCM), ogrodje za pospeševanje inferenc. V internih testih navajajo do 90-odstotno znižanje latenc in 22-krat večji prepust. Koda naj bi bila septembra odprta (open-source), kar bi lahko pospešilo širšo rabo v skupnosti.

Sama napoved je že odmevala na borzi: pri proizvajalcu AI-čipov Cambricon so delnice po poročilih zrasle za približno 20 %. Skupaj DeepSeek-R2 in Huaweijev UCM nakazujeta jasen premik v kitajskih ambicijah na področju visokozmogljive umetne inteligence in AI-samozadostnosti.
