與 AR 模型(xíng )不同,dLLMs 不遵循序列對(duì)數(shù)(shù )概率的順序(xù )分解。同時(shí),每個(gè) token 的對(duì)數(shù)概率計(jì)算成本也很高,因(yīn )為解碼過(guò)程中(zhōng )需要多次(cì )調(diào)用掩(yǎn )碼預(yù)測(cè)器 f_θ?;诖?,該研究提出(chū )了一個(gè)高效的對(duì)數(shù)概率估(gū )計(jì)器(qì )。
版權(quán)所有 ? 2025 青龍影院 保留所有權(quán)利