<th id="ecvor"><pre id="ecvor"></pre></th>

<mark id="ecvor"><optgroup id="ecvor"></optgroup></mark>

  • <progress id="ecvor"></progress>
    <li id="ecvor"><acronym id="ecvor"></acronym></li><rp id="ecvor"></rp>
  • 中央政法委機關報法治日報社主辦

    您所在的位置:首頁  > 互聯網事

    利用AI造謠,服務提供者是否需要承擔責任?

    2024-01-25 11:09:08 來源:法治日報·法治周末

    《法治周末》記者 王京仔

    四川公安查處2起利用AI文章生成軟件編造、傳播網絡謠言典型案例,重慶公布5起網絡謠言典型案件,2起利用AI生成文章造謠……近日,多地警方查處了一批利用AI編造謠言的案例。

    隨著人工智能技術的發展,一些人為賺取流量,利用大模型等AI平臺或工具很容易就能生成虛假的文字、圖片甚至音視頻,極易制造網絡謠言。而這類利用AI生成內容編造的謠言,打破了人們“有圖有真相”“眼見為實”的認知,使得謠言更加難辨真偽。

    那么,利用AI生產的內容是“原創”嗎?其生產內容的版權歸屬誰?生成內容被用作造謠,AI服務提供者需要承擔法律責任嗎?

    利用AI造謠事件頻發

    “未來兩年時間內,虛假或錯誤信息將對全球構成重大威脅?!苯?,世界經濟論壇公布的《2024年全球風險報告》指出,由AI產生的錯誤和虛假信息正在成為一種風險。

    對于這種風險的擔憂來自現實,利用AI編造謠言的情況正在全球上演,我國也不例外。

    2023年12月20日,一篇題為《12歲女生被8人輪流扇耳光3小時,致耳膜穿孔》的文章發布在某平臺,引發大量網民關注,也引起四川省德陽市羅江區警方關注。隨后,有網友舉報該文為虛假信息,幾小時后該文章被平臺下架。兩天后,羅江警方找到了始作俑者劉某群。

    劉某群為了博取流量,獲得平臺瀏覽獎勵,將2023年12月實際發生在江西某地已被處理的“校園霸凌事件”截取相關圖片后,利用AI小程序自動編輯功能,嫁接為發生在德陽某學校的“校園霸凌”虛假信息,制作了上述文章進行發布。目前,德陽公安已經依據治安管理處罰法對劉某群進行行政處罰,并對其造謠賬號采取關停措施。

    這樣的現象,出現在全國多地。據《法治周末》記者不完全統計,自去年年末以來,就有四川、重慶、河南、江西、福建等地警方查處了一批利用AI工具編造謠言的案件;而在此前,還有山東、江蘇、浙江、湖南、甘肅等多地警方也查處過相關案件。

    北京嘉濰律師事務所律師趙占領向記者表示,“AI造假”問題確實正在成為網絡環境發展和治理的一大風險。

    AI生成內容的版權歸屬

    為了流量和利益制造網絡謠言,已經成為互聯網的一大“毒瘤”。但AI技術的發展,使得這些“有心人”編造謠言變得更容易。通過各種AI工具,他們就能輕易甚至一鍵生成想要的虛假文字、圖片、音視頻。

    那這些利用AI生成的內容受到著作權法的保護嗎?其版權歸屬于誰?

    2023年,北京互聯網法院對全國首例AI生成圖片著作權案,作出一審判決,對于我國人工智能產業發展具有積極意義。

    李某認為劉某未經其許可使用涉案圖片,且截去了自己的署名水印,嚴重侵害了其享有的署名權及信息網絡傳播權。北京互聯網法院認定,李某在涉案圖片生成過程中,通過設計提示詞、設置參數的方式對生成圖片的畫面元素和畫面布局進行具有個性化的選擇和安排,能夠體現出原告的獨創性智力投入,享有涉案圖片的著作權。劉某的行為侵害了署名權和信息網絡傳播權,判決其賠禮道歉并賠償原告經濟損失500元。一審宣判后,雙方均未上訴。

    中國社會科學院大學互聯網法治研究中心執行主任劉曉春告訴記者,根據上述一審判決,如果在使用AI工具生成圖片等內容的過程中,人有相應的自主選擇,包括在操作AI工具過程中人特定的智力投入,也可以認定是獨創性,使用者從而對生成的作品主張版權。

    “很多學者有不同觀點,認為實質上生成內容是AI完成的,人只是給了一些指令?!眲源褐毖?,對于AI生成內容的版權問題,目前還存在較大爭議,并無定論。

    在劉曉春看來,使用者在指令過程中獨創性生成的內容,獲得著作權法上的保護沒有太大障礙。但她強調,如果人的投入不足以構成一個創作的構成部分的話,沒有明顯的智力過程,那這部分AI生成的內容不應該受到著作權法的保護,例如,一兩條簡單指令就生成的圖片等。

    服務提供者對內容的義務和責任

    “AI造假”使得網絡謠言更加難辨真假,那么,AI服務提供者對于生成內容的真實性是否負有義務?如果相關內容被用作造謠,提供者是否承擔責任?

    2023年1月正式實施的《互聯網信息服務深度合成管理規定》(以下簡稱《規定》)明確,深度合成服務提供者對使用其服務生成或者編輯的信息內容,應當采取技術措施添加不影響用戶使用的標識,并依照法律、行政法規和國家有關規定保存日志信息;深度合成服務提供者提供智能對話、智能寫作等模擬自然人進行文本的生成或者編輯,合成人聲、仿聲等語音生成或者顯著改變個人身份特征的編輯,人臉生成、人臉替換、人臉操控、姿態操控等人物圖像、視頻生成或者顯著改變個人身份特征的編輯等深度合成服務時,可能導致公眾混淆或者誤認的,應當在生成或者編輯信息內容的合理位置、區域進行顯著標識,向公眾提示深度合成情況。

    同年8月施行的《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)也規定,提供者應當按照《規定》對圖片、視頻等生成內容進行標識。

    劉曉春表示,法律上AI服務的提供者有對生成內容進行標識的要求,我國也正在抓緊進行相應的執法、標準等配套工作。國家從技術規范方式做好標識要求,實際上一定程度能從源頭上防止造假、謠言問題。對于有風險的一些合成,人工智能的提供商有責任去強制進行顯性標識。對于平臺而言,如果明知是虛假內容、謠言還去傳播或縱容傳播,肯定要承擔相應的責任;如果是在不知道或沒有辦法明確知道的情況下,出現了舉報或有理由能夠發現這是合成內容的情況下,也需要采取相應的措施。

    趙占領也指出,人工智能服務提供者除了標識的基本義務以外,提供者包括AI平臺經營者發現違法或侵犯他人權益內容,也應當采取停止生成、停止傳輸、消除等處置措施,同時采取優化訓練等措施去整改,并向有關部門進行報告。若提供者已經盡到標識義務,使用者利用其他技術手段消除標識,對生成內容進行傳播誤導了公眾或損害了他人合法權益,則提供者或平臺就沒有責任了,主要是使用者責任。

    同時,《辦法》規定,“提供者應當依法承擔網絡信息內容生產者責任,履行網絡信息安全義務”。趙占領認為,《辦法》雖然沒有明確說明提供者、經營者必須保證生成結果的真實性、合法性,但規定了AI工具的提供者要對內容承擔生產者責任,這意味著,如果生成的內容不真實或者侵犯他人合法權益,提供者本身需要承擔相應的責任。

    在趙占領看來,對人工智能服務提供者要求網絡信息內容生產者責任是較為嚴格且籠統的,未來需要進一步對政策進行細化,不宜把所有內容都讓其承擔生產者責任。例如,縮小提供者的責任范圍,明確在哪些情況下對于內容負有相應責任。因為在現有技術條件下,即使ChatGPT也很難完全做到生產的內容真實、準確、合法。

    “規定太嚴技術上做不到,規定寬松容易生產虛假、違法內容,這是一個兩難的問題;同時,生產內容在脫離了平臺控制能力范圍外,如何進行識別、監管也是一個難題?!壁w占領直言,短期內很難解決這些難題,需要依靠技術和產業不斷發展,監管逐步去摸索相應措施,再去完善相關規定。

    責編:仇飛

    聯系我們 | 誠聘英才 | 廣告征訂 | 本站公告 | 法律聲明 | 報紙訂閱

    版權所有 Copyrights ? 2014-2024 www.helpmore.com.cn ALL RIGHTS Reserved 《法治周末》

    京ICP備10019071號-1 京報出證字第0143號

    京公網安備 11010502038778號

    同性男男黄G片免费网站,JULIA ANN VIDEOS XXX,免费观看18禁无遮挡真人网站,国产精品亚洲LV

    <th id="ecvor"><pre id="ecvor"></pre></th>

    <mark id="ecvor"><optgroup id="ecvor"></optgroup></mark>

  • <progress id="ecvor"></progress>
    <li id="ecvor"><acronym id="ecvor"></acronym></li><rp id="ecvor"></rp>