但(dàn )不可否認的是,AI很(hěn )難克服“幻覺(jiào )”,因此(cǐ )也就存(cún )在(zài )數(shù)據(jù)自污染(rǎn )的問題,如果將AI生成的數(shù)據(jù)再次用于模型的(de )訓(xùn )練,可(kě )能最終(zhōng )會收斂成一個更差(chà )的結(jié)果。要避免(miǎn )這種(zhǒng )情況發(fā)生,就需要對AI進行治理。最近,國(guó )內(nèi)已經(jīng)出臺了相關(guān)法規(guī)(編者注:3月(yuè )7日(rì ),國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和(hé )信息化部、公安部、國家廣(guǎng )播電視總局聯(lián)合發(fā)(fā )布《人工(gōng )智能生成合成內(nèi)容(róng )標識辦法》,對AI內(nèi)容(róng )的標識提出了(le )三(sān )大核心要求,涉及顯式標(biāo )識、隱(yǐn )式標識和平臺責任,該辦法自2025年9月1日(rì )起施行(háng )),我覺得這個做法是對的。技術(shù)的進(jìn )步是不可阻(zǔ )擋的(de ),但在(zài )技術(shù)的發(fā)展過程中需要被規(guī)范(fàn ),要防(fáng )止技術(shù)被違法(fǎ )犯罪分(fèn )子利用。
版權(quán)所有 ? 2025 青龍影院 保留所有權(quán)利