龍文懋:就生成式人工智能而言,前面(miàn )談到的輸入端侵權(quán)風險,即人工智能訓練使用(yòng )海(hǎi )量內(nèi)容的侵權(quán)風險是比較突出的。遺憾的是(shì ),目(mù )前這方面侵權(quán)與否的判定依據(jù)(jù )還不明晰(xī ),給企(qǐ )業(yè)防范風險帶來(lái )不確定性。在輸出(chū )端,輸出(chū )內(nèi)容(róng )與在先(xiān )作品實質(zhì)性相似帶來(lái )的侵權(quán)風險(xiǎn )比(bǐ )較突(tū )出(chū )。比如有的(de )使(shǐ )用(yòng )者向人工智(zhì )能(néng )發(fā)出請求,要求生成(chéng )某(mǒu )一個大家熟知的動漫人物形象,如果(guǒ )人工智能作出響(xiǎng )應、給出與該動漫形象實質(zhì)性(xìng )相似的內(nèi)容(róng ),則可能構(gòu)成(chéng )侵(qīn )權(quán)。由于人工智(zhì )能服務不屬(shǔ )于傳統(tǒng)意義上(shàng )的互聯(lián)網(wǎng)服務,難(nán )以適用避(bì )風港原則(zé ),“通知—刪除”規(guī)則難以(yǐ )給人工智能服(fú )務(wù )提供者提供有效的規(guī)避侵權(quán)(quán )風險(xiǎn )的“避風港”,企業(yè)往往要預先采取過濾、屏蔽措施(shī )來(lái )降低侵權(quán)(quán )風險,這無疑加重了企業(yè)的注(zhù )意義務和(hé )負擔(dān )。有論者主張,人(rén )工智能服務技術(shù)中立,要(yào )求其(qí )事(shì )先采取過濾、屏蔽(bì )措施是對其施加了(le )過高的注意義(yì )務,可能妨礙人工智能企業(yè)和產(chǎn)業(yè)的發(fā)展。這些觀點也是值得重(chóng )視的。
版權(quán)所有 ? 2025 青龍影院 保留所有權(quán)利