生成式AI技術(shù)快速發(fā)展帶來多重挑戰(zhàn)
2024-12-26 中國質(zhì)量萬里行 點擊:次
隨著科技的日新月異,生成式AI(人工智能)技術(shù)正以驚人的速度蓬勃發(fā)展,成為推動全球產(chǎn)業(yè)升級的關(guān)鍵力量。2024年,多位諾貝爾獎獲得者的目光聚焦于AI領(lǐng)域,進一步凸顯了AI在全球范圍內(nèi)的深遠(yuǎn)影響。同時,由OpenAI、谷歌、微軟等100多家企業(yè)共同簽署的《人工智能公約》也彰顯了全球范圍內(nèi)對AI技術(shù)發(fā)展的高度重視和規(guī)范化追求。
中國作為科技大國,積極響應(yīng)全球AI技術(shù)的發(fā)展趨勢,提出了“人工智能能力建設(shè)普惠計劃”。在這一背景下,生成式AI技術(shù)在中國取得了顯著成果,為各行各業(yè)帶來了前所未有的變革和機遇。然而,正如硬幣有兩面,生成式AI技術(shù)的快速發(fā)展也伴隨著一系列不容忽視的問題。
AI“魔改”經(jīng)典影視作品現(xiàn)象嚴(yán)重
近年來,隨著AI技術(shù)的不斷發(fā)展和應(yīng)用,一些短視頻制作者開始利用AI技術(shù)對經(jīng)典影視作品進行“魔改”,創(chuàng)作出大量荒誕不經(jīng)的內(nèi)容。例如,《紅樓夢》變成了“武打戲”,孫悟空和魯智深成為好朋友,唐僧抽煙、談戀愛,諸葛亮品紅酒、玩手機……這些“魔改”內(nèi)容與原著精神內(nèi)核相悖,且涉嫌構(gòu)成侵權(quán),不僅破壞了經(jīng)典作品的完整性和藝術(shù)價值,也損害了粉絲的感情和利益。
來源/央視新聞截圖
近日,廣電總局針對AI“魔改”經(jīng)典影視作品亂象發(fā)布了《管理提示(AI魔改)》,要求各相關(guān)短視頻平臺排查清理AI“魔改”影視劇的短視頻,并限期反饋工作情況。同時,要求平臺嚴(yán)格落實生成式人工智能內(nèi)容審核要求,對平臺開發(fā)的大模型或AI特效功能等進行自查,對相關(guān)技術(shù)產(chǎn)品嚴(yán)格準(zhǔn)入和監(jiān)看,并對AI生成內(nèi)容作出顯著提示。
然而,盡管廣電總局已經(jīng)采取了積極措施進行整治,但AI“魔改”現(xiàn)象仍然存在,這反映了技術(shù)監(jiān)管的難度和挑戰(zhàn)。
AI“魔改”現(xiàn)象不僅帶來了版權(quán)和聲譽等方面的法律爭議,還引發(fā)了社會對于文化傳承和價值觀的擔(dān)憂。一些專家認(rèn)為,AI“魔改”會顛覆新生代對傳統(tǒng)文化的理解,解構(gòu)傳統(tǒng)嚴(yán)肅文學(xué),影響網(wǎng)絡(luò)視聽環(huán)境的健康和文化傳承的嚴(yán)肅性。同時,“魔改”還可能會影響青少年的歷史觀、價值觀,導(dǎo)致未成年人對歷史文化認(rèn)知的曲解。這不僅不利于青少年健康成長和全面發(fā)展,也不利于社會文化的傳承和發(fā)展。
不可忽視的法律風(fēng)險與司法難題
北京大學(xué)武漢人工智能研究院副院長、中國科學(xué)技術(shù)法學(xué)會常務(wù)副會長兼秘書長張平指出,生成式AI的研發(fā)與應(yīng)用帶來了一系列法律風(fēng)險及司法適用難題。這些問題不僅涉及知識產(chǎn)權(quán)保護、個人隱私保護,以及內(nèi)容的真實性和可靠性等,還因其智能化的特點而可能引發(fā)AI法律主體地位、侵權(quán)責(zé)任認(rèn)定等新的法律議題。
深度偽造技術(shù)是生成式AI技術(shù)帶來的首要法律風(fēng)險之一。借助生成式對抗網(wǎng)絡(luò)(GANs)等先進技術(shù),深度偽造技術(shù)能夠創(chuàng)造出高度逼真的虛假內(nèi)容。這種技術(shù)一旦被濫用,極易導(dǎo)致虛假信息的泛濫,損害社會信任,破壞公共利益。例如,今年韓國曝出的“首爾大學(xué)版N號房”事件和另一起涉及未成年女孩的“Deepfake”事件,便是深度偽造技術(shù)被濫用的典型例證。
在前端數(shù)據(jù)訓(xùn)練環(huán)節(jié),生成式AI技術(shù)需要海量數(shù)據(jù)作為支撐。但在實際操作中,未經(jīng)著作權(quán)人許可擅自使用作品數(shù)據(jù)的情況時有發(fā)生,侵犯了著作權(quán)人的合法權(quán)益。全國首例生成式AI侵權(quán)案便是一個典型例證,該案不僅引發(fā)了社會各界的廣泛關(guān)注,也促使人們開始深入思考如何有效防范和應(yīng)對生成式AI技術(shù)帶來的知識產(chǎn)權(quán)風(fēng)險。
此外,在模型訓(xùn)練與應(yīng)用階段,由于數(shù)據(jù)集可能未經(jīng)充分脫敏處理,包含了相關(guān)隱私信息或敏感個人信息,這大大增加了隱私泄露的風(fēng)險。同時,生成式AI在生成內(nèi)容時,可能會不當(dāng)使用這些個人信息,從而在用戶交互中無意中泄露隱私,對用戶的個人信息安全構(gòu)成嚴(yán)重威脅。這種風(fēng)險不僅影響個人用戶,還可能對企業(yè)和國家安全造成潛在威脅。
張平還介紹,在司法實踐中,生成式AI技術(shù)同樣帶來了諸多難題。首先,真人驅(qū)動型數(shù)字虛擬人的法律主體地位問題成為焦點。隨著AI技術(shù)的不斷發(fā)展,真人驅(qū)動型數(shù)字虛擬人在娛樂、商業(yè)等領(lǐng)域的應(yīng)用越來越廣泛。然而,在司法實踐中,對于真人驅(qū)動型數(shù)字虛擬人的法律主體認(rèn)定仍持否定態(tài)度,認(rèn)為其并非法律意義上的自然人。這一立場雖然反映了法律對于新興技術(shù)現(xiàn)象的適應(yīng)性和審慎性,但也暴露了法律在AI主體認(rèn)定上的困境和滯后性。
其次,現(xiàn)有制度規(guī)范與實踐之間存在不適應(yīng)問題。生成式AI技術(shù)的出現(xiàn)引發(fā)了知識產(chǎn)權(quán)侵權(quán)、隱私與個人信息保護等法律問題的廣泛探討。這些法律問題的根源在于現(xiàn)有制度規(guī)范的缺失與實踐對相應(yīng)制度規(guī)范的需求之間的矛盾。如何在推動技術(shù)發(fā)展與保護合法權(quán)益之間尋求平衡,已成為實踐關(guān)注的焦點和亟待解決的問題。
最后,生成式AI侵權(quán)責(zé)任認(rèn)定同樣成為司法實踐中的一大難題。由于AI所生成的內(nèi)容包含用戶指令與AI服務(wù)提供者技術(shù)工具的雙重貢獻,導(dǎo)致在著作權(quán)侵權(quán)糾紛中難以準(zhǔn)確界定侵權(quán)的行為主體。這不僅增加了司法審判的難度和復(fù)雜性,也加劇了相關(guān)利益方的矛盾和沖突。
來源/AI繪圖生成
應(yīng)對生成式AI技術(shù)挑戰(zhàn)的措施
面對生成式AI技術(shù)帶來的法律風(fēng)險與司法難題以及其他方面的挑戰(zhàn),專家建議相關(guān)部門要采取積極有效的措施進行應(yīng)對。
一是要完善法律法規(guī)體系,明確生成式AI技術(shù)的法律地位和監(jiān)管要求。通過制定專門的法律法規(guī)或修訂現(xiàn)有法律法規(guī),將生成式AI技術(shù)納入法律監(jiān)管范疇,明確其法律責(zé)任和侵權(quán)責(zé)任認(rèn)定標(biāo)準(zhǔn)。同時,加強法律法規(guī)的宣傳和普及工作,提高公眾對生成式AI技術(shù)法律風(fēng)險的認(rèn)知和防范意識。
二是要加強監(jiān)管和自律機制建設(shè)。建立健全生成式AI技術(shù)的監(jiān)管體系,加強對相關(guān)企業(yè)和平臺的監(jiān)管力度。同時,鼓勵企業(yè)和平臺加強自律機制建設(shè),完善內(nèi)部管理制度和技術(shù)手段,提高風(fēng)險防范和應(yīng)對能力。此外,還需要加強跨部門、跨地區(qū)的協(xié)同監(jiān)管和合作機制建設(shè),形成合力共同應(yīng)對生成式AI技術(shù)帶來的挑戰(zhàn)。
三是要加大技術(shù)研發(fā)和創(chuàng)新力度。通過加大技術(shù)研發(fā)和創(chuàng)新投入,推動生成式AI技術(shù)的不斷發(fā)展和完善。同時,加強技術(shù)研發(fā)與創(chuàng)新成果的轉(zhuǎn)化和應(yīng)用推廣力度,促進生成式AI技術(shù)在各個領(lǐng)域的廣泛應(yīng)用和深度融合發(fā)展。在推動技術(shù)發(fā)展的同時,注重保護合法權(quán)益和平衡各方利益訴求,實現(xiàn)技術(shù)與社會的和諧共生。
專家表示,生成式AI技術(shù)的快速發(fā)展帶來了一系列挑戰(zhàn)和問題,需要正視這些挑戰(zhàn)和問題并積極應(yīng)對。通過完善法律法規(guī)、加強監(jiān)管與自律、提升公眾意識與素養(yǎng)等多方面的努力,共同推動生成式AI技術(shù)的健康發(fā)展與廣泛應(yīng)用。

掃碼投訴