• bitcoinBitcoin (BTC) $ 89,167.00
  • ethereumEthereum (ETH) $ 2,932.98
  • tetherTether (USDT) $ 0.998743
  • usd-coinUSDC (USDC) $ 0.999673
  • tronTRON (TRX) $ 0.304815
  • dogecoinDogecoin (DOGE) $ 0.124992
  • cardanoCardano (ADA) $ 0.359599
  • bitcoin-cashBitcoin Cash (BCH) $ 597.52
  • moneroMonero (XMR) $ 508.92
  • chainlinkChainlink (LINK) $ 12.24
  • leo-tokenLEO Token (LEO) $ 8.91
  • stellarStellar (XLM) $ 0.210924
  • zcashZcash (ZEC) $ 364.10
  • litecoinLitecoin (LTC) $ 68.29
  • hedera-hashgraphHedera (HBAR) $ 0.108718
  • daiDai (DAI) $ 0.999543
  • crypto-com-chainCronos (CRO) $ 0.091298
  • okbOKB (OKB) $ 103.00
  • ethereum-classicEthereum Classic (ETC) $ 11.71
  • kucoin-sharesKuCoin (KCS) $ 10.74
  • cosmosCosmos Hub (ATOM) $ 2.37
  • algorandAlgorand (ALGO) $ 0.120380
  • vechainVeChain (VET) $ 0.010310
  • dashDash (DASH) $ 69.77
  • tezosTezos (XTZ) $ 0.595484
  • true-usdTrueUSD (TUSD) $ 0.998660
  • iotaIOTA (IOTA) $ 0.088956
  • decredDecred (DCR) $ 20.31
  • basic-attention-tokenBasic Attention (BAT) $ 0.183405
  • neoNEO (NEO) $ 3.69
  • qtumQtum (QTUM) $ 1.28
  • ravencoinRavencoin (RVN) $ 0.006818
  • 0x0x Protocol (ZRX) $ 0.126611
  • wavesWaves (WAVES) $ 0.677459
  • iconICON (ICX) $ 0.054419
  • ontologyOntology (ONT) $ 0.058902
  • paxos-standardPax Dollar (USDP) $ 0.999664
  • liskLisk (LSK) $ 0.178462
  • huobi-tokenHuobi (HT) $ 0.205272
  • bitcoin-goldBitcoin Gold (BTG) $ 0.584167
  • nemNEM (XEM) $ 0.000873
  • augurAugur (REP) $ 0.747308
Прочее

Ян ЛеКун показал альтернативу генеративным VLM

Meta* FAIR представила VL-JEPA — первую vision-language модель, которая не генерирует токены, а предсказывает смысл в абстрактном пространстве.

Это развитие линии JEPA, которую ЛеКун продвигает как альтернативу генеративному подходу. Сначала был V-JEPA для видео (понимание физики мира), затем LeJEPA (теоретическое обоснование).

Теперь — полноценная мультимодальная модель.

Вместо того, чтобы предсказывать следующий токен как GPT/Claude, VL-JEPA предсказывает эмбеддинг — «смысл» ответа. Декодер в текст вызывается только когда нужно показать результат человеку.

Результаты:
— 1.6млрд параметров конкурирует с 72B Qwen-VL на задаче понимания действий
— На 50% меньше обучаемых параметров при лучшем качестве в контролируемом сравнении
— Декодирование в ~3 раза эффективнее за счёт selective decoding
— Одна модель решает classification, retrieval и VQA без изменения архитектуры.

Почему это важно?Генеративные VLM тратят ресурсы на моделирование поверхностных вариаций текста. VL-JEPA работает на уровне семантики, что даёт выигрыш в эффективности и скорости. Особенно важно для real-time приложений: робототехника, AR-очки, стриминг видео.

Авторы говорят, что это не замена VLM для задач рассуждения, использования инструментов и агентного поведения — там генеративные модели пока лидируют.

*запрещенная организация в России.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»