與 AR 模型不同,dLLMs 不遵循序列對(duì)數(shù)(shù )概率的順序(xù )分解。同時(shí),每(měi )個(gè) token 的對(duì)數(shù)概(gài )率(lǜ )計(jì)算成本也很高,因(yīn )為解碼過(guò)(guò )程中需要多次調(diào)用掩碼預(yù)測(cè)器 f_θ?;诖?cǐ ),該(gāi )研究提出了(le )一個(gè)高(gāo )效的對(duì)(duì )數(shù)概率(lǜ )估計(jì)器。
版權(quán)所有 ? 2025 青龍影院 保留所有權(quán)利