• bitcoinBitcoin (BTC) $ 89,351.00
  • ethereumEthereum (ETH) $ 2,932.05
  • tetherTether (USDT) $ 0.998714
  • usd-coinUSDC (USDC) $ 0.999680
  • tronTRON (TRX) $ 0.302659
  • dogecoinDogecoin (DOGE) $ 0.124058
  • cardanoCardano (ADA) $ 0.357576
  • bitcoin-cashBitcoin Cash (BCH) $ 596.47
  • moneroMonero (XMR) $ 513.18
  • chainlinkChainlink (LINK) $ 12.20
  • leo-tokenLEO Token (LEO) $ 8.91
  • stellarStellar (XLM) $ 0.210527
  • zcashZcash (ZEC) $ 362.42
  • litecoinLitecoin (LTC) $ 67.73
  • hedera-hashgraphHedera (HBAR) $ 0.108859
  • daiDai (DAI) $ 0.999473
  • crypto-com-chainCronos (CRO) $ 0.091371
  • okbOKB (OKB) $ 103.02
  • ethereum-classicEthereum Classic (ETC) $ 11.66
  • kucoin-sharesKuCoin (KCS) $ 10.76
  • cosmosCosmos Hub (ATOM) $ 2.37
  • algorandAlgorand (ALGO) $ 0.120321
  • dashDash (DASH) $ 70.63
  • vechainVeChain (VET) $ 0.010297
  • tezosTezos (XTZ) $ 0.595946
  • true-usdTrueUSD (TUSD) $ 0.998605
  • iotaIOTA (IOTA) $ 0.088831
  • decredDecred (DCR) $ 19.99
  • basic-attention-tokenBasic Attention (BAT) $ 0.183512
  • neoNEO (NEO) $ 3.69
  • qtumQtum (QTUM) $ 1.28
  • ravencoinRavencoin (RVN) $ 0.006813
  • 0x0x Protocol (ZRX) $ 0.126823
  • wavesWaves (WAVES) $ 0.675091
  • iconICON (ICX) $ 0.054701
  • ontologyOntology (ONT) $ 0.058760
  • paxos-standardPax Dollar (USDP) $ 0.999563
  • liskLisk (LSK) $ 0.177240
  • huobi-tokenHuobi (HT) $ 0.205768
  • bitcoin-goldBitcoin Gold (BTG) $ 0.584157
  • nemNEM (XEM) $ 0.000863
  • augurAugur (REP) $ 0.747324
Прочее

Ян ЛеКун показал альтернативу генеративным VLM

Meta* FAIR представила VL-JEPA — первую vision-language модель, которая не генерирует токены, а предсказывает смысл в абстрактном пространстве.

Это развитие линии JEPA, которую ЛеКун продвигает как альтернативу генеративному подходу. Сначала был V-JEPA для видео (понимание физики мира), затем LeJEPA (теоретическое обоснование).

Теперь — полноценная мультимодальная модель.

Вместо того, чтобы предсказывать следующий токен как GPT/Claude, VL-JEPA предсказывает эмбеддинг — «смысл» ответа. Декодер в текст вызывается только когда нужно показать результат человеку.

Результаты:
— 1.6млрд параметров конкурирует с 72B Qwen-VL на задаче понимания действий
— На 50% меньше обучаемых параметров при лучшем качестве в контролируемом сравнении
— Декодирование в ~3 раза эффективнее за счёт selective decoding
— Одна модель решает classification, retrieval и VQA без изменения архитектуры.

Почему это важно?Генеративные VLM тратят ресурсы на моделирование поверхностных вариаций текста. VL-JEPA работает на уровне семантики, что даёт выигрыш в эффективности и скорости. Особенно важно для real-time приложений: робототехника, AR-очки, стриминг видео.

Авторы говорят, что это не замена VLM для задач рассуждения, использования инструментов и агентного поведения — там генеративные модели пока лидируют.

*запрещенная организация в России.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»