■ 中國工業報 銀昕
你以為眼前視頻中的明星正在為某款產品代言,但其實他是被換過臉的;你以為視頻中的演員正在嘗試用英語說相聲,但他實際上是被換過聲的;你以為一家上市公司出了年度報告,但實際上是杜撰的……當生成式AI的技術不斷進步,其偽造信息的能力也趨近于登峰造極。出自AI之手的虛假信息,正充斥著網絡環境。
近日,港星黃百鳴在社交媒體上發布了一則聲明,稱有人盜用他過去主演的電影畫面,用人工智能技術替換了聲音,并將口型根據聲音進行了匹配,用來為一個不知名的藥膏品牌做了代言。黃百鳴鄭重表示,他沒有授權任何人用他的名義代言藥膏品牌,“這種行為純屬欺詐,旨在誤導公眾并從中取利”。
除了代言產品,名人形象還被用來做針砭時弊的評論節目。國慶節期間,小米董事長雷軍頻頻“出鏡”,在各種短視頻中評論節日期間的交通擁堵和調休等問題,這也是出自AI的偽造信息。雷軍在個人社交賬號上用憤怒的表情予以回應。
特斯拉首席執行官埃隆·馬斯克也成了受害者。今年8月,他的形象被AI編輯后,生成了向公眾推薦某投資理財產品的視頻,看了視頻之后,有人出于對明星本人的信任,進行了投資,不出所料地血本無歸。
看起來天衣無縫的虛假內容讓受眾無所適從,這些內容也會擾亂社會輿論,產生社會問題。
AI的深度偽造能力
2023年秋天,衛先生還認為國外的人臉建模技術比國內要先進一些,更能以假亂真。沒想到一年之后,國內視頻制作者就能做出以假亂真的AI視頻。
從2023年秋天開始,AI翻譯視頻開始在各短視頻平臺流行起來,制作者將原視頻截取后,利用AI技術先將主人公所講的內容轉化為外語的文稿,保留其音色,再利用人像建模技術,將口型也對成講外文的口型,以此達到以假亂真的效果。
視頻中的郭德綱好像解鎖了新的技能包,講起了英文相聲:“LuoHanalsoturnedaroundaheadtowardthelargeroadinthenorth.Proceednorth,hewalksforapproximately20miles……”其實,這段視頻中,郭德綱原話是這樣的:“羅漢一轉身,沿著一條朝北的大路,走了大概20里地……”
近一年以來,相聲、小品、談話節目、評論節目……眾多語言類節目都成了可改編的對象。
“真的是起風了,這個風口是所有營銷人必須把握的。”衛先生供職于一家從事互聯網營銷策略顧問服務的公司,在他的記憶中,這類視頻開始廣泛流傳,始于2023年9月。“這是我的職業習慣,做互聯網營銷這一行,必須時刻把握新營銷技術的動向?!痹谛l先生看來,這類視頻背后沒有多少技術含量,最核心的部分在于文本翻譯,也就是將原生語言翻譯成各國的目標語言,這類技術服務商已經非常成熟,“國內是科大訊飛,國外是Google?!敝劣趯⒄f話者的音色保留,再與新的語言對上,并且將面部的口型也與新的語言對上,靠的是人臉建模技術。2023年秋天,衛先生還認為國外的人臉建模技術比國內要先進一些,更能以假亂真。沒想到一年之后,國內視頻制作者就能做出以假亂真的AI視頻。在黃百鳴“代言”藥膏的視頻中,他的口型及其他面部動作十分自然,不再有這類視頻產生之初的不自然的停頓和動作變形。
營銷視頻是此類AI技術的用武之地?!瓣P鍵在于打破藩籬?!毙l先生說,此前的外語視頻只能靠字幕翻譯,哪怕翻譯技術可以做到實時,但依然不如讓視頻中的主人公用操著當地語言,甚至是當地俗語來講話。當此類技術更加成熟之后,國際間的交流將更加無縫。
張丹峰是東北地區一家跨境電商企業的負責人,靠著AI視頻技術,他將自家產品的推薦視頻,在極短時間里就翻譯成了幾十種語言,迅速拉近了和目標國家消費者的心理距離,同一段視頻,擴大了不知多少倍受眾?!斑@個技術基本消除了語言障礙,而且節省了人才。以前做同樣的事情,需要上百個翻譯才行?!睆埖し逭f。
不過AI帶來便利的同時,危機也隨之出現。在沒有獲得當事人授權的前提下,就用AI將其視頻進行編輯,已經構成侵權,如果用AI盜用他人形象,生成虛假宣傳的廣告,就更會釀成嚴重的社會問題。
高端“語料”不足
在獲取優質“語料”的環節受阻,使AI的下一步發展遇到了瓶頸。
AI視頻最早出現,首先是供人娛樂,但當有人系統性地將AI技術用于生成虛假信息,這種應用方式似乎背離了AI技術的本意。
AI真正被寄予厚望,是能夠成為人類的“高參”或者“助手”。如果將大量優質的內容當作語料“投喂”給AI,讓AI自我學習,就會產生新的優質內容。于是,優質內容就成為了關鍵。
“這個行業之所以有勁兒沒處使,關鍵在于能‘投喂’的優質內容太少了,產出的優質內容自然也就很少?!毙l先生告訴記者,當前生成式AI最稀缺的資源,就是包含大量人類經驗智慧的“語料”。
生硬的“語料”并不稀缺。以法律內容為例,如今可以輕易將所有的成文法、行政法規以及海量的典型案例信息“投喂”給AI,但這些都不是全部人類的智慧經驗。人類的智慧經驗只藏在資深律師的頭腦里:在實務中如何切入案件,如何找到最有利于為當事人辯護的策略,通過何種途徑找到最有利的證據……這些技能目前AI仍無法掌握。
衛先生將此類寶貴的經驗和智慧,稱之為“knowhow”,“只有將足夠多的knowhow語料‘投喂’給AI,才會產生更高的回報。”但他也坦言,高質量語料不足是當前的一大痛點,knowhow語料更多地隱藏在非公開的信息中。
獲取非公開信息,自然涉及版權問題。尷尬的是,即便是獲取公開信息用來投喂,也讓技術公司在版權上屢屢受挫。今年6月,美國唱片工業協會宣布,索尼、環球和華納等唱片公司對音樂領域的兩家技術企業suno和udio起訴,指控兩家企業在未經允許下便大規模使用版權音樂,用于訓練AI模型。
“這類案件對技術公司來講十分尷尬,有足夠的語料可‘喂’,是生成式AI能夠成長的前提,但這的確又涉及知識產權?!北本╋w馬旅發起人郭昕告訴中國工業報,當前對生成式AI的語料使用,沒有任何定價的標準,如果讓版權持有人來定價的話,一定會很高,因為AI對語料的需求是海量的。
上述美國幾家唱片公司開出的價碼是:對已構成侵權的作品,每件賠償15萬美元。如果照此執行,上述兩家技術公司是負擔不起的。
北京市中聞律師事務所合伙人,知識產權部首席律師趙虎告訴中國工業報,非公開領域的信息更會涉及知識產權保護以及信息主體的隱私權問題,此類信息的持有人出于謹慎,不會輕易讓他人獲取。“我相信北京的知名醫院手中,一定會有所謂knowhow的信息,包含了名醫個人的心得和經驗,但這些數據既涉及患者的隱私,也涉及名醫的‘秘方’等,不宜讓他人獲取?!壁w虎說。
在獲取優質“語料”的環節受阻,使AI的下一步發展遇到了瓶頸。
清理AI亂相
視頻制作者應在顯著位置標明此視頻經過AI編輯,要讓用戶一眼便知真假。
虛假AI編輯視頻首先觸犯了著作權法,趙虎告訴記者,著作權有17項子權利,翻譯權便是其一。如果想要翻譯一個作品,應該在著作權保護期內獲得原作品著作權人的授權。以相聲為例,充滿了各種俗語和地方方言,不同的翻譯水平決定了呈現的效果?!叭绻诜g過程中對原意有篡改,那就侵犯了另一項權利:保護作品完整權?!壁w虎說。
此類視頻也明顯不合乎于2023年1月施行的《互聯網信息服務深度合成管理規定》。規定明確要求:提供人臉、人聲等生物識別信息編輯功能的,應當提示深度合成服務使用者依法告知被編輯的個人,并取得其單獨同意;還要求可能導致公眾混淆或者誤認的,應當在生成或者編輯的信息內容的合理位置、區域進行顯著標識。也就是說,視頻制作者應在顯著位置標明此視頻經過AI編輯,要讓用戶一眼便知真假。
上述虛假視頻顯然沒有事先征得當事人的同意,也沒有在顯著位置明示AI編輯字樣。
針對互聯網上的不良和違法信息,中央網信辦每年都部署和開展“清朗”專項行動。根據中國工業報的不完全統計,每次專項行動約為兩個月。最近一次“清朗”專項行動部署于2024年10月底,主題是同城板塊內容信息內容問題整治。這次行動針對提供同城信息內容或服務的所有網頁、視頻以及應用程序,在重點整治的五類問題中,其中一類就是網絡謠言和虛假信息。
AI視頻會不會出現在“清朗”行動的主題中?趙虎對此表示,由于AI視頻已經深入各個內容領域,“如果以不同內容板塊來確定主題,在每次行動中都包含對虛假信息和網絡謠言的整治,反而更有針對性?!壁w虎說。
請輸入驗證碼