忘忧草在线影院www日本,亚洲偷偷自拍高清,中国女人内谢69xxx,亚洲自偷自拍另类12p

>
2024-11-04|
分享到:
|617 |文章來源:視聽界

廣電視聽高質量發展的思考:AIGC在內容生產中的應用與展望

在信息化、智能化的大背景下,AI技術以其強大的計算能力和學習能力,為廣播電視和網絡視聽行業帶來了革命性的變革。從內容創作到傳播渠道,AI技術的應用正逐步滲透廣電行業的各個環節,極大地提升了生產效率,豐富了用戶體驗。

AIGC在廣播電視和網絡視聽領域的應用呈現出以創新驅動為內核的新質生產力的明顯特征,內容制作方式、網絡傳播能力、互動交互效果以及監測監管手段都將發生系統性的變革,新的勞動資料、新的勞動對象、新的勞動者應運而生。

AIGC作用下生產力三要素的變革

生產力是推進社會變革的根本動力,生產資料是衡量生產力發展水平的客觀尺度,也是劃分經濟時代的物質標志。麥肯錫在2023年發布的《AIGC經濟影響報告》中預測,通過AIGC與行業應用的結合,到2040年可能實現每年0.5%至3.4%的勞動生產率增長。

互聯網在Web1.0、Web2.0、Web3.0與元宇宙時代的迭代升級過程中,孕育了相輔相成的內容生產方式,主流媒體也跟隨互聯網的變遷經歷了自身的變革和轉型,經歷了從傳統廣播電視傳播體系到融合傳播體系的變遷。內容生產方式也經歷了從PGC到UGC,再到AIGC的發展歷程。

“大數據+大模型+大算力”構筑了廣播電視和網絡視聽發展新質生產力的“新基礎”,將成為元宇宙時代的內容生產基礎設施,廣播電視和網絡視聽行業在技術創新、產業結構、人力資源、資源利用等方面將發生巨大的變革。

(一)數據成為新的勞動對象

數據作為新型生產要素,具備可復制、大規模、非消耗、邊際成本接近于零等新特性,與傳統的廣播電視生產方式相比,在生產成本、內容穩定性、內容豐富度、受眾體驗等方面都有大幅度提升,能夠為廣播電視和網絡視聽高質量發展提供更廣闊的機會。

在傳統的內容生產過程中,勞動對象主要是由創作者通過智力和技能加工的具體素材。AIGC技術的運用使廣播電視視聽行業的勞動對象從單一的人工創作素材轉變為多元化的數據資源和智能化生成過程,使之更加具備數據化、虛擬化、靈活動態化的屬性。

(二)大模型成為新的勞動資料

AIGC的學習過程就是對模型的訓練過程,也就是調整變量和優化參數的過程。根據學界經驗,深度神經網絡的學習能力和模型的參數規模呈正相關,AIGC的學習能力取決于參數的規模和訓練所需的數據量。

由此,生產基礎設施的主要變化有以下幾個特征:一是高性能計算資源需求增大,AIGC技術依賴強大的算力支持,數據中心、云計算平臺、GPU服務器等硬件設備將成為不可或缺的勞動資料,以便快速高效地處理大規模數據和運行復雜的AI算法。二是智能創作工具更替加快,AIGC內容生成軟件、智能編輯系統、自動剪輯軟件等將成為新的勞動資料,它們能夠輔助或直接參與到內容創作、編輯、合成等各個環節,技術迭代更替的速度更迅速。三是新型技術融合更廣,AIGC在3D模型、虛擬現實等領域的應用,使得立體化、沉浸式的視聽體驗所需的技術和素材也成為重要勞動資料。自然語言處理、計算機視覺、語音識別與合成等技術集成,構成了AIGC的重要組成部分,成為生產過程中的核心勞動資料。

(三)出現新的勞動者

AIGC的最大優勢是其具備邏輯推理能力,突破了線性思維框架實現非線性推理,通過歸納、演繹、分析,實現對復雜邏輯關系的描述。

新的勞動者具有以下明顯特征:一是技能結構發生轉型,勞動者需要掌握新的技能和知識,包括理解AIGC技術的基礎原理、熟悉AIGC創作工具的使用方法以及如何有效地與AIGC協同工作,如訓練、優化和初步審核AIGC生成的內容。二是工作職能發生變化,內容創作者的角色可能轉變為AIGC內容策略或AIGC內容監制,他們負責指導和監督AIGC創作流程,確保輸出內容符合創意目標、意識形態和法規要求。三是倫理與法律素養要求更高,AIGC創作的內容更加豐富和多元,涉及版權、原創性、隱私權等問題將更為復雜,勞動者需要具備更高的倫理意識和法律素養,以應對可能出現的知識產權和倫理道德挑戰。四是跨界協作增加,AIGC技術的應用會促進跨學科、跨專業的協作,例如與數據科學家、工程師團隊緊密合作,共同開發定制化的大模型,以滿足內容生產的特定需求。

綜上,生產要素的高效配置實現生產力的躍遷,形成廣播電視和網絡視聽的新質生產力雛形,從宏觀、中觀、微觀層面體現出AIGC在廣播電視網絡視聽行業引起的質量變革、效率變革和動力變革。

AIGC在廣電視聽的應用現狀與問題

(一)AIGC在廣電視聽的應用現狀

1.主流的視頻生成大模型

當前國內外視頻生成模型主要有三類,也就是擴散(Diffusion)模型、轉換器(Transformer)模型以及結合上述兩種模型的DiT(Diffusion Transformer)模型。生成視頻的相關應用也分為文生視頻模型(Text-to-Video)、圖生視頻模型(Image-to-Video)以及視頻優化模型(Video Optimization)三類。

從以上情況可知,DiT模型是當前文生視頻應用的主要模型。從OpenAI公開的文件可知,Sora的訓練與其他大模型的底層算法邏輯類似,但是它借助了ChatGPT的自然語言理解能力,涌現出對基礎物理規則的理解,從而做到對用戶需求的精準呈現。根據其公布的論文可以了解到,Sora在畫面解構訓練和多重算法組合方面具有優勢。

一方面在畫面結構上,OpenAI團隊在訓練過程中將畫面或者片段分解為“補丁”(Patch)或者說是“拼圖”。這些拼圖就像是文字中的單詞或字母,通過讓人工智能學習“拼圖”來理解和處理視頻數據。這樣復雜的圖片可以變成簡單的拼圖,每一塊拼圖就是一個“補丁”。這種方法讓大模型能夠更有效地處理和生成視頻,并為訓練中將擴散模型和轉換器模型結合的DiT路徑提供了基礎。

另一方面,Sora的建構使用多重優質算法組合。在Sora發布之前,圖像生成領域形成了Diffusion(擴散)和Transformer(轉換)兩種主流算法。Sora所采用的DiT架構將兩者融為一體。使用Diffusion通過添加噪聲,使圖片受到干擾,然后擴散算法隨機降噪生成清晰的圖片。Transformer作為深度學習算法,采用Encoder-Decoder(編碼器—解碼器)架構并引入自注意力機制與多頭注意力機制,通過預訓練學習“拼圖”,理解并創造圖像。如果說Transformer架構是一個多才多藝的理解者,那么Diffusion架構就是一個創造性的藝術家。Sora將這兩種技術結合起來,它不僅能夠創造出各種各樣的圖片和視頻,而且還能根據文字進行創作。

如果說以ChatGPT為代表的大語言模型的出現標志著機器開始“聽懂人話”,那么以Sora為代表的視頻生成模型則標志著人工智能開始“描繪世界”。未來隨著技術的發展,將有更多類人“感官”,例如嗅覺、觸覺等賦予人工智能。

2.AIGC內容生產主要的三種模式

1)AI Generate(大模型)生產模式

這種方式通過用戶輸入指令,輔以文字、圖像、視頻等數據,由人工智能大模型直接生成內容。生成過程仍然是一個“黑箱”,人類在完成算法和模型訓練之后,視頻大模型的推理過程擺脫創作者控制,生成的結果不可預測性較高。

大模型的生產方式需要在特定的通用大模型基礎上投入大量的訓練數據和算力資源,初期的建設成本較高,并且需要在科研攻關、需求應用、安全發展、產業生態等方面取得合作和支持。中央廣播電視總臺聯合上海人工智能實驗室在2023年發布了“央視聽媒體大模型”,《千秋詩頌》是首部在“央視聽媒體大模型”下生產的系列動畫片,高度再現了中國古詩詞中的人物造型、場景和道具。

基于“央視聽媒體大模型”文生圖、圖像可控生成技術,采用提示詞進行畫面內容生成,同時可以使用風格參考圖、草圖等方式對生成內容進行打磨,生成所需的人物形象、場景、道具等圖片。例如在場景生成時,先選擇一張參考圖像,并給出“中國風、唐朝、秋冬季節道路”的提示詞,即可生成相應AI場景。

 

動態效果方面,主要使用了“央視聽媒體大模型”文生視頻和圖生視頻功能,選取主角對象后輸入動態效果提示詞,便能得到動畫效果。例如選取古代文人的人物形象,輸入“唐朝,一個文人,抱著古琴走”,就能生成對應的動畫;輸入圖片素材后,采用圖像驅動視頻,可以生成4-8秒動畫視頻。另外,基于主題一致性模塊,生成的動畫還可實現“多機位”效果,保持故事情節連貫。

 

后期制作中結合配音配樂模型生成節奏對應、旋律匹配的配音、配樂,再輔以人工剪輯,制作成片。

2)AI Workflow(工作流)生產模式

這種模式視頻生產類似“AI組合拳”,創作者是核心,其各個階段的創作能力因不同的大模型加持而提升,也是目前行業內應用最為廣泛的一種生產模式。根據基礎模型功能區分,這類視頻創作分為以下幾個階段:

工作流的生產方式相比于大模型的生產方式,初期的建設成本更低,只需要通過接入相關的模型接口,在傳統的內容生產流程中借助人工智能實現數字合成、虛實融合的呈現效果,眾多主流媒體都采用了這種“一站式AIGC工作臺”的內容生產方式以提升生產效率,上海廣播電視臺的“智媒魔方”、芒果超媒的“AIGC HUB”、成都市廣播電視臺的“知著AI智能應用平臺”都是類似開箱即用的AIGC工具套裝,滿足了主流媒體內容創作中的部分需要。

繼《千秋詩頌》之后,中央廣播電視總臺通過工作流的生產方式制作播出了AI全流程微短劇《中國神話》,實現美術、分鏡、視頻、配音、配樂全部由AI完成。《中國神話》AI工具套裝由“文生劇本”“文生圖”“圖生視頻”“文生音頻”四個重要功能的應用集成,其中“文生劇本”功能基于GPT-4語言模型,“文生圖”功能基于Midjourney繪畫模型,“圖生視頻”功能基于Runway和Pika視頻生成模型,“文生音頻”功能基于Suno音樂模型。

《中國神話》為保證神話場景和人物東方化審美角色的統一性、劇情的連貫性,創作者反復修改提示詞,以生成符合大眾認知、具有東方韻味的神話人物與場景,“文生圖”環節提示語發揮了至關重要作用。《中國神話》為了將故事完整地呈現在觀眾面前,在創作中更加注重人物呈現、邏輯連貫、情感表達等內容性部分的制作。

“圖生視頻”環節,為最大限度地去提升角色的“演技”,探索劇情人物的動作連貫與情感表達,需要制作團隊對人物主體的動態感進行多種參數搭配嘗試,以克服主體運動幅度和畫面穩定性不同步的難題。例如,在《中國神話》系列之《填海》中,為讓“鳥羽微動”這2秒的畫面生動起來,創作者反復調整參數搭配最終達到理想的效果,該劇配音配樂也均由AI完成,并表現出一定的創意能力。

 

3)AI Agent(智能體)生產模式

智能體是一種可以直接面對目標任務,具有自主記憶、推理、規劃和執行的全自動能力,可以從人類指令直接生成視頻內容,過程中并不需要人的介入。從這一點上,智能體與大模型生成的過程類似。兩者的核心區別是智能體生成過程不再是“黑箱”,人為因素對創作影響增強。智能體作為一種操控基礎模型的模型,具備長時間記憶,在創作者發出指令后,可以依據用戶使用習慣、本地數據、專業數據集等,分解工作任務,通過與各種基礎模型的適配,尋找出實現指令的最佳方式,并完成指令。

智能體的生產方式可能是未來AIGC應用的一個趨勢,智能體的生產方式核心在于自主性的增強,AI可以獨立完成一個工作節點,或在某個工作節點減少人類的干預。目前,智能體的內容生產方式還處于試水階段,從建設成本、生成效果、產出效率來看,這種內容生產方式更值得內容制作機構關注。

(二)AIGC應用中的問題

1.模型成熟度不足

從生成效果來看,文生圖的模型普遍對于數量、否定指令理解較差,存在真實性較弱、紋理細節不夠、生成畫面一致性較差等問題。目前多模態大模型共同缺陷主要有以下幾個方面:

1)逼真度:盡管AIGC技術在生成內容方面取得了顯著進展,但生成的視頻內容在逼真度上仍然無法與真實世界相媲美。這包括物體的物理屬性、光影效果、紋理細節等,難以達到真實世界的復雜性和多樣性。

2)場景和元素多樣性:AIGC模型在生成多樣化的場景和元素方面存在限制。如果訓練數據集中的場景和元素類型有限,模型生成的內容會顯得單一和重復,缺乏真實世界中的豐富性和變化性。

3)連貫性和邏輯性:視頻內容需要在時間線上保持連貫性和邏輯性。AIGC模型在生成長視頻或復雜場景時,可能會遇到難以保持內容連貫性的問題,導致生成的視頻出現不自然或不合邏輯的跳躍。

4)角色交互和動態行為:在涉及多個角色或動態交互的場景中,AIGC模型可能難以準確模擬角色之間的復雜交互和行為。這包括角色的動作、表情、對話等,可能無法達到真實世界中的自然和流暢。

2.算力不足

視頻內容相較于文本和靜態圖像具有更高的數據密度和復雜度,每一幀畫面都需要處理大量的像素信息。對于長視頻而言,這不僅意味著數據量的線性增長,更涉及連續幀間的時間序列關系處理,這對計算資源提出了極高的要求。特別是采用高清或超高清分辨率時,單幀圖像的處理就需要龐大的算力支撐,更不用說合成連貫的動態視頻。

算力不足是AIGC生成長視頻的主要限制因素之一。首先,由于算力資源有限,生成長視頻的時間成本極高,往往需要數小時乃至數天,難以滿足快速創作和即時反饋的需求;其次,為了在有限算力下完成任務,可能不得不降低模型復雜度或視頻質量,導致生成內容細節缺失、流暢度下降;再次,高算力需求限制了算法的探索與迭代速度,阻礙了新技術、新模型的開發應用,影響內容多樣性和創意表達。

在技術層面,視頻生成過程中的每一環節,從幀內渲染到幀間預測,都是高度計算密集型任務;更大、更復雜的模型雖然能生成更高質量的內容,但其對算力的需求呈指數級增長;雖然GPU等加速器提高了并行處理能力,但在大規模長視頻生成場景中,數據傳輸與同步問題成為瓶頸;長視頻處理需要在內存中存儲大量中間數據,現有硬件配置往往難以滿足這種大規模數據處理需求。

3.大模型的評價指標體系尚不成熟

大模型的評價指標體系在模型的應用過程中至關重要,它直接影響模型的選型、優化、部署和效果評估。

清華大學新聞與傳播學院開展了一系列大語言模型綜合性能方面的研究工作,研發的“元測”模型評價體系提供了可供性、可用性、可信度、可替代性和可塑性5個一級指標和26個細分二級指標,評價了模型的物理屬性、生成效果、安全性、感知能力和抗干擾能力等,使用客觀和主觀相結合的評價方式,且客觀數據可獲得。

中國傳媒大學開展了文生視頻模型主觀評價體系的研究工作,采用主觀評價的方法,直接采用觀看者的視覺感受作為主觀評價結果,從圖文一致性、真實性、視頻質量和美學質量4個一級指標和26個二級指標,評價了模型的生成質量,這套主觀評價體系高度依賴評測人員的專業識別能力和數據分析,需要由專業機構策劃實施。

現階段,大模型的評價工作并沒有一套行業公認的評價指標體系,特別是視覺大模型的評價,評估機構對視覺大模型的研究還處于初級階段,缺乏更細顆粒度的指標,用于評估的數據集和評估策略也都還處在摸索階段,尚沒有系統性的評估方案。

4.內容生成的知識產權爭議

AIGC本質上是機器學習的應用,而在模型的學習階段,無法避免使用百科全書式的海量數據集執行訓練,但目前對于訓練后生成物的版權歸屬問題尚無定論。當前業界關于AIGC涉及的版權問題主要有兩種看法。一類觀點認為,內容由素材庫訓練生成,本身來自素材庫,需要對相關的素材作者提供版權付費。但對于廣播電視和網絡視聽的AI項目來說,AI的素材學習庫十分龐大,獲得所有訓練集的授權是不切實際的。此外,AIGC本質上是機器的再創造過程,就好像是一個導演在看完幾十萬部影視作品后,制作出新的作品,或多或少會受到其觀看作品的影響,但要求其向所有學習的影視作品的作者支付版權是不科學的。另一類觀點認為,AIGC產生內容的過程是一個完全隨機且創新的過程,不存在版權問題,版權屬于AIGC的用戶或者平臺,具體規定由平臺制定。

平臺在處理版權問題的過程中,可能采用以下三種方式:一是生成物由作者使用AIGC工具創造,其版權完全歸作者所有;二是生成物由平臺AIGC工具生成,其版權歸平臺所有,但作者可以在非商用的情況下自由使用,對于商用的情況,只有付費用戶有權自由使用;三是生成物由公共的作品數據訓練而成,其知識產權也不應由某個機構或個人占有,任何人生成的作品都可以由其他人自由地以任何符合法律規定的形式使用。

研究機構通常認為在AIGC的內容生產水平尚未達到較高水平的現階段,無需考慮作品的版權確屬問題,目前最關鍵的是想辦法解決算力不足、算法落后的問題。內容制作機構對AIGC作品版權的問題,考慮得較為謹慎,認為AIGC生成的作品也是人類勞動的成果,是提示工程師直接作用于生產資料的勞動產物,版權應該得到相應的保護。

AIGC行業應用的展望

盡管AIGC技術目前面臨一些困難與挑戰,但AIGC是當前和未來技術發展的重要趨勢之一,AIGC技術的出現,將引發廣播電視和網絡視聽傳播體系的變革。當生產力發生了質的變化,必然帶來生產關系的重構,形成與AIGC相適應的新型生產關系。廣播電視和網絡視聽行業在建設、運營和管理等方面將迎來系統性的改革,這將是廣播電視和網絡視聽行業進一步深化改革的重要舉措。

加速形成廣電視聽新質生產力已成為全行業的目標和共識,形成以數據為基礎的新型傳播體系,或將是廣電視聽高質量發展的趨勢之一,以“數據+模型”的智能制作平臺,優化和豐富內容供給;以“算網融合”的智能傳播平臺,擴大主流媒體傳播效果和網絡傳播能力;以“虛擬+現實”的智能交互平臺,拓展文化消費新場景;以“模型to模型”的智能監管平臺,推進安全播出保障體系化進程。

(一)“數據+模型”的內容生產

主流媒體傳統的內容生產方式,受限于成本、技術和資源這三個因素,內容產出量和生產效率始終處于緩慢發展的狀態,AIGC的引入,將給主流媒體內容生產帶來更高效的生產率和更豐富多樣的內容產出。雖然AIGC是通過算法模型來主導內容生產,但是人類內容創作者仍然扮演了至關重要的角色,短期內仍無法被完全替代。算法模型的優化,價值觀的判斷,是這種新的內容生產方式的核心,在未來一段時間內,人機合作的內容生產方式,將是主流媒體實現高質量內容生產的最佳模式。

新的生產方式將會引入新的內容生產要素,不再局限于現實的聲音和圖像,虛擬場景、數字人、AI人聲將成為內容生產要素的重要組成部分;借助于大模型的自然語言處理能力、視覺處理能力和語義理解能力,實現跨模態、跨平臺的內容匹配,進一步豐富內容生產,主流媒體內容生產將向“數據+模型”方向邁進,進一步提升廣播電視和網絡視聽吸引力、傳播力、影響力。

(二)“算網融合”的智能傳播

中國信通院《中國算力發展指數白皮書(2022年)》統計,截至2021年底,全球數據總產量達67ZB,我國數據總產量達6.6ZB,全球算力總規模達616EFLOPS,2030年全球數據將達到YB級別。未來,AIGC將提高內容生產的效率,催生豐富的交互式應用形態,新型廣播電視網絡必將承載更多的內容和更加豐富多樣的業務形態,實現AIGC時代節目的跨屏跨網跨終端傳播的需要,新型廣播電視網將承載巨大的數據運算和網絡安全需要,算力和網絡資源需要實現統一納管和融合路由調度。

“算網融合”的智能傳播平臺將成為支撐人工智能發展的堅實基礎設施,內容制作和網絡運營不再是相互分割的業務板塊,而是同處于高效、可靠、安全且用戶體驗良好的網絡生態環境中的有機整體。

AIGC應用時代,針對大規模機器學習模型,特別是深度學習模型的訓練和運行所需的計算環境和資源配置,對計算能力、數據管理、存儲、帶寬和網絡性能等方面有著極高的要求,需要為各種AI應用提供更強大的支持。

主流媒體將在“算網融合”的智能傳播平臺基礎上,構建一套差異化特色業務體系,實現“抓內涵”和“抓傳播”相結合的管理目標。一方面突出主流媒體特色,用好用足廣播電視內容資源,另一方面增強主流媒體的覆蓋面、到達率、影響力,滿足人民群眾日益增長的文化生活需要,把更豐富的收視體驗帶進主流媒體的傳播通道,強化全流程、全頻道、全屏幕、全業務的貫通。

(三)“虛擬+現實”的智能化交互

AIGC的作用下,內容走向多元化,大模型的使用不僅拓寬了廣播電視和網絡視聽從業者創作模式,還降低了用戶使用和參與創作的門檻,傳播網絡不再是節目傳送的通道,還將系統性解決算力和網絡資源的配置,為主流媒體豐富業態模式提供了可能,與受眾的互動空間也將從現實空間擴展至虛擬空間,主流媒體與受眾的交互方式將迎來新的變革,更多內容豐富的作品通過交叉互動的方式,融入人民群眾的工作和生活中,滿足人民群眾的信息需求、文化需求和娛樂需求。

未來,AIGC將為區塊鏈、Web3.0和元宇宙帶來深層改變,加速形成廣義數字孿生形態與物理形態的平行世界。在元宇宙空間中,通過VR/AR/MR/XR,結合“劇本殺”的內容新模態,推陳出新,激發人民喜愛、傳承和弘揚中華優秀傳統文化的熱情。利用多模態感官感知、數據可視化工具、沉浸式視聽等技術,集成增強分析工具、地理定位數據、感官刺激、自動語音識別和行為算法等工具,實現現實生活與元宇宙空間的銜接,形成內容生產大模型與受眾的交叉互動平臺,創新主流媒體文化新品類和新服務,打造新型的文化消費新空間。

(四)“模型to模型”的智能化監管

全新視頻生成大模型,其生成過程涉及龐大的訓練數據集,具備高度智能化、生成速度快、創意性強等特點。由于可以模擬動態視覺效果和捕捉與日常生活經驗一致的互動模式,生成的視頻內容可能涉及各種復雜的場景和情節,特別是面向個人用戶使用時會產生版權、隱私、安全、虛假內容、不良價值觀等問題,這些問題因AIGC生成速度快和數量大更加突出。

“模型to模型”的智能化監管,從管理的主體和客體來看,就是以算法管理算法、以模型監管模型的一種行業管理思路。具體來說就是,使用一組算法或模型來監控和評估另一組算法或模型的行為和特性,以確保算法和模型的透明度、公平性和安全性,保障大模型生成視頻內容的合法合規,更好地控制人工智能系統的潛在風險,同時促進其積極發展。

AIGC將數據、算法和算力帶入整個行業的運行中,大模型在未來很可能會成為一項社會公共基礎設施,參與到整個內容的制作和傳播過程中。意識形態、公共服務、技術產業三大屬性決定了未來廣電視聽大模型的基本定位,大模型訓練數據集是廣電視聽大模型能發揮作用的基本保障,“算網融合”的智能網絡基礎是廣電視聽大模型運行的底座。建設一套符合中國特色社會主義核心價值觀的廣電視聽大模型是行業共同的愿景,也是行業發展的選擇。

文章評論

請輸入您的留言: