打出一行文字,上面寫著“一個華麗的珊瑚礁紙藝世界,充滿了色彩繽紛的魚類和海洋生物”。隨后,一個長達20秒的視頻由此生成,鏡頭從巨大的紙質珊瑚礁開始,依次轉向魚群、海龜和海馬,在結尾處還可以看到紙質海馬的尾部在微微晃動。

 

該技術平臺被稱為“Sora”。推出ChatGPT一年多后,美國人工智能公司“開放人工智能研究中心”(OpenAI)宣告將推出視頻生成模型Sora。根據OpenAI的介紹,Sora可以根據文本指令制作長達60秒的視頻,其中包括“詳細的場景、復雜的鏡頭運動和多個充滿活力的角色”。

 

這是OpenAI首次進軍人工智能視頻生成領域,Sora還沒有正式對外發布,只是在社交媒體上發布了數個視頻作品作為預告。預告視頻得到了眾多夸贊評論,但也不乏質疑擔憂之聲。有人擔心今后難以辨別視頻真假,也有人擔心隨著技術的快速發展,自己的工作將會被人工智能取代。

 

近日,新京報記者對話美國密歇根州立大學丹佛分校計算機科學系主任史蒂夫·比蒂(Steve Beaty),比蒂在計算機網絡理論和實踐領域都有廣泛的背景。談及Sora的誕生,比蒂認為,Sora增加了圖像的真實感,可以在場景之間平滑過渡,是一個非常引人注目的產品。

 

針對外界對人工智能技術將進一步模糊真假界限,甚至造成深度偽造的擔憂,比蒂指出,這就像打開一個“潘多拉盒子”,得到了人工智能技術,其他潛在風險也隨之出現。面對一個難辨真假的世界,公眾不應輕易對網絡信息作出判斷,須依賴常識找到多個信源。另外,問題的根源中也有解決問題的方法,人們也可以利用人工智能來檢測信息是否由人工智能生成。


對話美國密歇根州立大學丹佛分校計算機科學系主任史蒂夫·比蒂(Steve Beaty)。地球連線出品

 

“Sora或不會對視頻生產行業產生太大影響”

 

新京報:人工智能公司OpenAI公布了一種新的人工智能系統Sora,該系統可以根據用戶的文本提示創建高質量逼真的視頻。Sora并不是首個類似產品,谷歌、Meta等公司都有類似技術。與它們相比,Sora突出的特點有哪些?

 

比蒂:Sora明顯提高了(生成視頻內容的)標準,增加了保真度,提高了像素。OpenAI還有其他產品,例如DALL-E3,但這仍針對的是圖片。Sora增加了圖像的真實感,在場景之間平滑過渡,這些都在Sora中得到了實現。我們在研究之后會發現,Sora是個非常引人注目的產品。

 

2月20日,新京報記者對話美國密歇根州立大學丹佛分校計算機科學系主任史蒂夫·比蒂(Steve Beaty)。圖/地球連線截圖

 

新京報:Sora目前還沒有對公眾開放,但已有觀察人士認為Sora可能代表人工智能的重大進步。你如何看待Sora給視頻生產行業帶來的機遇和挑戰?

 

比蒂:最明顯的一點是,現在可以創作出在10年、20年前不可能完成的電影。我們可以對想要的電影畫面進行描述,然后Sora可以幫助呈現。我雖然不是視頻生產行業的專家,然而我想強調的是,許多觀眾主要關注的都是故事情節,而我不認為Sora背后的技術將會對故事情節產生多大影響。

 

我們確實看到了這項技術基于故事情節對圖像創作能力的影響,但絕大多數引人注目的圖片、電影以及視頻都是基于某個人撰寫的故事情節,我們相信這些情節并與之共情,讓自己沉浸其中。

 

我不認為自己能寫出一個足以轉換成視頻的好故事。如果其他有創造力的人,撰寫了這些引人入勝的故事,并通過Sora或其他技術表達出來,也許這是件好事,即便沒有數百萬美元身家,他們也有能力創造性地表達自己。

 

例如當我們觀看電影的時候,重點永遠是故事情節而不是特效?,F在我們可以把視頻做成任何我們想要的樣子,行業里也早就有了綠幕以及其他背景特效,但如果這不是一個好故事,那么沒人會在意其余這些。

 

“人工智能技術幾乎不可能不被濫用”

 

新京報:正如你所說,世界越來越擔心深度偽造可能產生的影響。世界經濟論壇發布的《2024年全球風險報告》將人工智能產生的錯誤信息和虛假信息列為2024年世界面臨的最重大風險之一。你如何看待人工智能技術將網絡上本就模糊的真假界限變得愈發難以分辨?

 

比蒂:從區分信息、虛假信息和錯誤信息的角度來看,這是一個非常重大的問題。例如,現在Sora已經將技術公布給所謂的“紅隊”(由“錯誤信息、仇恨內容和偏見等領域的專家”對模型進行對抗性測試以評估危害或風險),接下來“紅隊”要想辦法評估:如何破解它?它的缺點是什么?怎樣能讓視頻看起來非常真實?Sora也表示他們會用類似水印的工具來標記由他們制作生成的視頻,用戶可以借此辨別這個特定的視頻不是真的,但并不是所有公司都會在產品上打上水印。

 

在美國還有拿公眾人物取笑的文化歷史,深度偽造也成了取笑他們的一種新方式。網絡上有許多不同的軟件,任何人都可以去一個類似網站,創造屬于他們的深度偽造的音頻及視頻。

 

有鑒于這種情況,也展開了相應立法行動。我所在的科羅拉多州正在推進關于候選人選舉深度偽造的法案,其中包括如果分發含有與選舉職位候選人有關的深度偽造信息的通信,可以實施民事處罰。我們需要確保選舉是自由和公平的,從中找到界限,不能讓那些不是候選人的人假裝他們是候選人,或者讓人們偽造候選人說他們從未說過的話,這真的非常重要。

 

OpenAI將發布人工智能文生視頻模型“Sora”。圖/IC photo

 

新京報:即便人工智能公司將軟件公開給“紅隊”,試圖打造工具監測虛假內容,這可能做到讓技術完全不被濫用嗎?

 

比蒂:幾乎不可能。我們稱之為“潘多拉的盒子”,打開盒子后,我們擁有了視頻生成等系列技術,我們不可能回到過去了。打開人工智能這個盒子后,可能有公司選擇不遵循這些道德和倫理標準,這是我們必須接受并融入生活的事情之一——你不能簡單相信你所看到的,不能輕易相信單一信源消息。

 

新京報:作為普通人,我們應該如何應對人工智能產品可能帶來的風險?

 

比蒂:簡而言之,我們現在很難知道該相信什么。比方說,10年前我們就已經不相信照片了,但我們相信視頻,因為它是移動的,這類內容很難偽造?,F在我們不僅不相信照片,也不相信視頻,任何人都可以偽造它們。

 

如何判斷事實真相,這個問題在兩三千年前就已經被提出,古人與我們在同樣的問題上掙扎,這并不是什么新問題。雖然對于社會上的很多人來說,新科技讓人們更難以識別虛假信息,這并不是說完全不可能識別出它是虛假信息。

 

我們仍需要依賴常識,例如詢問自己這個人應該給我打電話嗎?這是普通人會在視頻中發表的言論嗎?此外,對于網絡上的信息,我們需要找到多個信源,去找那些花時間審查消息內容的信源。如果只是一個消息來源,一個社交媒體網站,無論是哪一家,他們都無法審查上傳到其網站上的所有信息,并確保所有信息都是正確的。

 

面對海量信息,我們也需要慢下來,等待一兩天的時間,看看事情是如何發展的。另外有一個很有趣的地方在于,問題的根源中也有解決問題的方法,有許多網站可以使用人工智能來確定一個特定的視頻、音頻以及照片是否由人工智能合成。

 

“目前人工智能監管工作只觸及了表面”

 

新京報:由于潛在風險的存在,人工智能監管工作也提上了日程。2023年召開了首屆人工智能安全峰會,歐盟通過了全球首部人工智能法。你如何評價目前全球對于人工智能使用的監管水平?接下來還需要做哪些工作?

 

比蒂:在人工智能監管方面的工作,我們只觸及了表面。根據我的經驗,技術總是領先于監管。任何一種技術,包括電視、電話甚至醫療技術,都是技術先行,隨后監管才跟上腳步。在人工智能領域,我們也在經歷一模一樣的事。無論是從國家層面還是州層面,他們都不太知道應該如何監管一種全新的技術。

 

例如,美國《通信規范法》第230條款中規定服務提供者(臉書、圖片墻等)對第三方在平臺上發布的內容不負責,他們只是提供這些內容。從現在來看,這是否依然合適?尤其是在(法案頒布)二三十年后,恐怕這些內容不太適用當今語境。我認為如今的監管至少落后了十到二十年。

 

我參加了科羅拉多州一個立法特別工作組,試圖弄清楚深度偽造、面部識別以及其他技術的意義和影響,但我們的確遠遠落后了,我們所能做的就是盡最大努力制定一套合理的法規,與此同時教育民眾,讓他們知道這項技術的能力,即便它目前還沒有受到全面監管。

 

這是我們在很大程度上一直討論的問題,即內容是有意義、合理的嗎?我是否可以在美國取笑一個公眾人物,答案是肯定的,這種情況經常發生。那么我是否可以在選舉季制作一個公眾人物視頻,讓他或她在里面說一些他們本沒有說的話,我想答案是否定的。我們有能力做許多我們并不應該做的事情,需要對技術做出有意義的平衡。接下來問題就變成了,我們如何確保任何技術被用于善,而不是惡。

 

OpenAI官網上介紹Sora的頁面。圖/IC photo

 

新京報:許多媒體將過去一年稱為“人工智能之年”,也有不少詞典的年度詞語都與人工智能相關。你會如何形容人工智能在2023年取得的進展?

 

比蒂:人工智能已經發展了很長一段時間,從本質上講,人工智能早在20世紀80年代就開始嶄露頭角,但受到計算機硬件能力的限制。邁入2020年后,圖形處理器等背后的硬件能力終于趕了上來,似乎在突然之間,它開辟了廣闊的視野,人類可以將其應用于文字、音頻以及制作圖像逼真的視頻。

 

2023年以及2024年是這些技術從理論進入實踐的年份,從只有學者使用高功率機器才能完成相應技術到幾乎任何人只要擁有一部連接網絡的電腦,就可以制作各種各樣的圖像、視頻與音頻。

 

另外一種需要注意的情況是,不是特指Sora,類似人工智能技術都可以實現深度偽造。在現在這個階段,深度偽造已經成為人工智能機器學習中非常重要的一個方面,所有人都可以制造出某一個人的復制圖像,讓他們完美地說出我們想讓他們說的話,這是外界的一個主要擔憂。

 

我正在科羅拉多州立法委員會研究深度偽造,尤其是它們出現在選舉周期時意味著什么,這種特殊的技術肯定會對此產生影響。我還想提示的一點是,這并不是什么特別新鮮的事,多年來我們一直有修改圖片的技術,還有其他方式可以在選舉中向公眾發布錯誤信息。

 

新京報:談到人工智能,一個總會被提及的問題是,人工智能是否會在未來取代人類的工作。長期而言,你如何看待人類與人工智能之間的關系?

 

比蒂:我相信電腦有一天會變得像人一樣聰明,而且它們還沒有任何物理形式上的限制。我們所討論的這個機器擁有的晶體管數量大約相當于人類的神經元數量,它為什么不能變得更聰明呢?它沒有任何物理限制,只有編程限制。在我看來,在不久的將來,電腦當然會變得更加聰明、智能。而這意味著什么?是否意味著它們將取代一些工作?答案是當然的。它們將從事一些不需要更高水平人類創造力的工作,這是毫無疑問的,這可能也是一件好事。

 

也就是說,它很可能把人類從目前的工作中解放出來,去做重要的工作。我不認為將人類的創造力釋放到以前從未涉足的領域有何負面影響。假設有人有一個很棒的劇本,他可以和Sora交流,創造一部電影,讓我們所有人都從中受益,這沒什么不好的地方。

 

當然,那些工作可能受到人工智能威脅的人,其中也包括我自己,我們進一步熟悉和利用人工智能是非常重要的。我同樣會在課上鼓勵人們在作業和論文中使用人工智能,需要強調的是,他們須標注引用來源,包括使用ChatGPT等技術的內容,做到學術嚴謹。

 

新京報記者 欒若曦 劉婧瑜

編輯 張磊 校對 王心