首頁 > 科教文衛(wèi)

生成內(nèi)容屬于誰?會侵權(quán)泄密嗎?ChatGPT法律風險詳解
2023年02月10日 08:49 中國新聞網(wǎng)

  中新網(wǎng)北京2月9日電(記者 袁秀月)近期,美國OpenAI公司旗下的人工智能聊天機器人ChatGPT一躍成為火爆全球的現(xiàn)象級應用。

  作為一項新興的數(shù)字技術(shù),人工智能正在以其強勁的力量影響周遭的世界。在人們因其產(chǎn)生好奇、興奮抑或擔憂、抵觸等情緒時,如何應對人工智能帶來的法律問題,警惕相關(guān)的法律風險亦顯得尤為重要。

網(wǎng)頁截圖
網(wǎng)頁截圖

  ChatGPT生成的內(nèi)容屬于誰?它能擁有作者身份嗎

  目前來看,人們應用ChatGPT的場景很廣泛,包括寫郵件、視頻腳本、文案、代碼、詩、論文等等。

  國外一項對100多名教育工作者和1000多名學生展開的調(diào)查顯示,超過89%的學生使用ChatGPT來幫助完成家庭作業(yè)。也有研究者用它來撰寫學術(shù)論文,為此多家學術(shù)期刊更改編輯規(guī)則,禁止將ChatGPT列為合著者。

  那么,在法律上,ChatGPT能擁有作者身份嗎?它生成文本內(nèi)容的著作權(quán)屬于誰?

  大成律師事務所合伙人李偉華對中新網(wǎng)記者表示,我國《著作權(quán)法》所稱“作者”,是自然人、法人或非法人組織,AI并非我國《著作權(quán)法》的“作者”,因此目前很難依據(jù)法律直接賦予ChatGPT以作者身份。即便對于少數(shù)明確通過立法承認AI生成內(nèi)容可以獲得版權(quán)保護的國家,其通常也是將計算機軟件的開發(fā)者,或為生成過程作出實質(zhì)性貢獻的人賦予作者身份。

  此外他提到,也要看計算機軟件開發(fā)者與用戶之間的協(xié)議約定。比如,ChatGPT生成作品的著作權(quán)劃分問題可從其服務條款了解一二。

  根據(jù)OpenAI的使用條款,只要該用戶遵守使用條款(其中包括某些使用限制),OpenAI就會將其在輸出內(nèi)容中的所有權(quán)利、所有權(quán)和利益轉(zhuǎn)讓給提供輸入內(nèi)容的用戶。然而,由于機器學習的特性,不同用戶可能會從AI中獲得相同或類似的輸出內(nèi)容,而根據(jù)條款,只有獨有的“輸出內(nèi)容”的權(quán)利才能夠轉(zhuǎn)讓。

  因此這種輸出內(nèi)容的轉(zhuǎn)讓需要排除呈現(xiàn)給其他ChatGPT用戶的結(jié)果,而該等限制會造成輸出內(nèi)容著作權(quán)的的不確定性,且會隨著時間推移變得更加不明朗。

  人工智能生成的作品能當做原創(chuàng)作品嗎?

  利用人工智能進行內(nèi)容創(chuàng)作,這并非新鮮事,但隨著技術(shù)的發(fā)展,人工智能內(nèi)容生產(chǎn)水平不斷提高,甚至還出現(xiàn)AI畫作獲獎的案例。

  人工智能生成的作品能當做原創(chuàng)作品嗎?李偉華表示,我國《著作權(quán)法》第三條規(guī)定,本法所稱的作品,是指文學、藝術(shù)和科學領(lǐng)域內(nèi)具有獨創(chuàng)性并能以一定形式表現(xiàn)的智力成果。因此理論上來講,無論自然人所創(chuàng)作的內(nèi)容,還是ChatGPT等人工智能生成的內(nèi)容,只要能滿足前述構(gòu)成要件都可以構(gòu)成作品。

  不過,目前,中國法律并未對人工智能生成的內(nèi)容是否可以構(gòu)成作品作出明確規(guī)定,我國法院在司法實踐中也對此存在不同理解。對此李偉華認為,人工智能生成的內(nèi)容只要滿足《著作權(quán)法》關(guān)于作品的構(gòu)成要件,應當被賦予版權(quán)保護。

  “因為這些看似屬于計算機或人工智能創(chuàng)作的內(nèi)容,根本上還是人類智慧產(chǎn)生的結(jié)果,計算機或人工智能不過是在依據(jù)人類事先設定的程序、內(nèi)容或算法進行計算和輸出而已。”他說。

  還有哪些法律風險?

  人工智能的發(fā)展也帶來了一系列嶄新的法律問題,對于普通的用戶而言,應當注意哪些法律風險?

  在李偉華看來,首先是知識產(chǎn)權(quán)侵權(quán)風險,因為ChatGPT是在大量不同的數(shù)據(jù)集上訓練出來的大型語言模型,使用受版權(quán)保護的材料來訓練人工智能模型,可能導致該模型在向用戶提供回復時過度借鑒他人的作品,從而引起侵權(quán)糾紛。

  李偉華提醒,作為用戶應當意識到這一風險,并考慮通過避免限縮聊天請求等可行措施,來避免或限制獲得趨于精確、狹義的可能來自特定作品的輸出內(nèi)容。

  其次是數(shù)據(jù)合規(guī)風險。OpenAI的使用條款規(guī)定了OpenAI對任何用戶輸入和輸出內(nèi)容擁有廣泛使用權(quán)以改善ChatGPT。在此基礎上,若用戶在輸入請求時,輸入與已識別或者可識別的自然人有關(guān)的各種信息(未匿名化處理),則有侵害他人個人信息權(quán)益的風險。

  因此用戶在使用ChatGPT時,應對所有可能涉及個人信息的數(shù)據(jù)進行匿名化處理,或避免鍵入任何涉及個人信息的內(nèi)容。

  最后是泄露商業(yè)秘密及違背保密義務的風險。李偉華解釋,用戶可能在無防備無警覺的情況下,在提交請求時輸入涉密信息。OpenAI的使用條款并未對用戶可能輸入ChatGPT的機密信息提供任何保護。相反,使用條款規(guī)定了OpenAI對任何用戶輸入和輸出內(nèi)容擁有廣泛使用權(quán)以改善ChatGPT,但允許用戶與OpenAI取得聯(lián)系,選擇不允許OpenAI將相關(guān)內(nèi)容用于此類目的。

  因此,用戶尤其是負有保密義務的用戶在使用ChatGPT和類似的人工智能工具時,應當注意采取措施,以免出現(xiàn)泄密行為。(完)

責任編輯:李一璠