“AI垃圾”泛濫,最后的防線在人類自
關鍵詞: AI垃圾 互聯網信息 技術濫用 利益驅動 應對措施
如今的互聯網上充斥著大量由AI工具生成的劣質信息。圖片由AI生成 如今的互聯網上,看似信息海量,但也充斥著大量單調、重復且缺乏質量的內容。 美國《紐約時報》網站在12月8日的報道中指出,當前網絡,尤其社交平臺正泛濫一種被稱為“AI垃圾”(AI Slop)的內容。英國《新科學家》網站10日也發表文章稱,今年,許多人感覺仿佛置身于一堆華而不實的“AI垃圾”中。英國《經濟學人》雜志更是將“Slop”一詞選為2025年度詞匯。這類錯漏百出、古怪甚至令人尷尬的內容遍布各平臺,也在悄然侵蝕著人們的思想。 “假冒偽劣”信息充斥網絡 “Slop”原指“豬食”“泔水”等廉價、粗糙、缺乏營養之物。如今,借由AI技術的浪潮,一些如同“Slop”的垃圾內容正在互聯網上肆意蔓延。 “AI垃圾”特指由AI工具生成的大量劣質、重復或無意義的文字、圖像或視頻,常見于社交媒體和自動化內容農場。 美國科技網站CNET在10月28日的報道中提到,如今社交平臺上“AI垃圾”五花八門:OpenAI的Sora可讓人幾秒內生成滑稽荒誕的視頻;LinkedIn上滿是由AI包裝的“專家箴言”,例如“有時領導力就是保持沉默的能力”;谷歌搜索結果也宛如AI雜貨鋪,竟會出現“姜黃能治愈心碎”這類無稽之談。 “AI垃圾”與“深度偽造”或“AI幻覺”雖有重疊,卻并不相同,其區別在于意圖與質量。 &sp; “深度偽造”指利用AI偽造或篡改影音,目的在于欺騙,從虛假政治演講到詐騙語音皆屬此類,其關鍵在于以假亂真。“AI幻覺”則屬技術錯誤,聊天機器人可能引用不存在的研究,或編造法律案例,本質是模型在預測詞語時出現了偏差。而“AI垃圾”范圍更廣,也更隨意:當人們用AI批量生產內容卻疏于核對準確性與邏輯時,便會產生此類垃圾。它們堵塞信息渠道,抬高廣告收益,用重復無意義的內容占據搜索結果。其錯誤源于敷衍,而非欺騙或技術局限。 技術濫用與貪婪心態成推手 “AI垃圾”之所以泛濫,一方面因為AI技術日益強大且成本低廉。AI公司開發這些模型,本意是降低創作門檻,讓有好點子卻缺乏技能或資源的人也能制作出更優質的內容。然而,有些人卻濫用AI工具海量生成文本、圖片與視頻,只為博取點擊和廣告收入。 隨著ChatGPT、Gemini、Claude等工具,尤其是Sora、Veo這類新型生成器的出現,幾秒內生成可讀文本、圖像與視頻已成為可能。于是,內容農場應運而生。一些人發現,用AI填充網站、社交動態和YouTube頻道,遠比人工創作更快。 AI不在意真相、品位或原創性,它只關注概率。這使得“AI垃圾”易于制作,迅速傳播。例如,某個YouTube頻道僅憑4個視頻,就積累了420萬訂閱和數億播放量。 平臺也在無形中助推此風。算法往往更看重內容的點擊與互動數據,而非質量。發布越頻繁,獲得關注就越多,哪怕內容純屬胡扯。AI讓這類操作變得易如反掌。 另一方面,利益亦是幕后推手。有些創作者大量發布虛假名人消息或夾帶廣告的標題黨視頻;也有人濫用AI內容誤導用戶,將其引向劣質網站。 乍看之下,“AI垃圾”似乎無傷大雅——無非是動態里幾條劣質帖子,或許還能博人一笑。然而當數量爆發,一切便會不同。隨著垃圾信息充斥網絡,可信來源在搜索結果中排名下降,真實與虛構的界限也變得模糊。 這種信任危機帶來切實后果:當無人能辨真假,錯誤信息便傳得更快。 應珍視人類的真誠創作 目前尚未有完美解決方案,但一些企業已開始嘗試。 例如,Spotify等平臺開始為AI生成內容添加標簽,并調整算法以降低劣質內容的推薦權重。谷歌、抖音與OpenAI等公司也承諾推出水印系統,幫助用戶區分人工內容與合成內容。不過,若有人對內容進行截圖、轉碼或改寫,這些方法仍可能失效。 部分應對措施基于一項名為C2PA(內容來源與真實性聯盟)的行業標準。該標準由Adobe、亞馬遜、微軟、Meta等企業共同支持,通過將元數據嵌入數字文件,記錄其創建與編輯過程。若順利推行,C2PA可幫助追溯圖片、視頻或文章的來源,無論其來自可信人類創作者,還是AI生成器。然而難點在于普及:元數據可能被剝離或忽略,且多數平臺尚未形成一致的執行規范。 當然,最有效的防護,其實在于人類自身。“AI垃圾”依賴自動化生產和人們無意識地刷屏與轉發——大多數人都曾有過這類體驗。因此,放慢節奏、核實來源、支持那些仍堅持用心創作的作者,雖不能立竿見影,卻是重要的開始。 垃圾泛濫在互聯網世界并非新事。人們曾對抗垃圾郵件、點擊誘餌、虛假信息……“AI垃圾”只是同一故事的新篇章:更快、更流暢,也更難察覺。網絡能否保持其應有的品質,取決于人們是否依然珍視人類的真誠創作,而非機器的機械輸出。(記者 劉 霞)
【責任編輯:冉曉寧】