與 AR 模型不同,dLLMs 不遵循序列(liè )對(duì)數(shù)概率的順序分(fèn )解。同(tóng )時(shí),每個(gè) token 的對(duì)數(shù)概率計(jì)(jì )算成本也很高,因?yàn)榻獯a過程中需要多次調(diào)用掩碼預(yù)測(cè)器(qì ) f_θ?;?jī )于此,該研究提出了(le )一個(gè)高效的對(duì)數(shù)(shù )概率(lǜ )估計(jì)器。
版權(quán)所有 ? 2025 青龍影院 保留所有權(quán)利