AI害記者失業? 哥大新聞學院權威:學會駕馭它

(圖/僅供雷鋒網稿件使用)

圖、文/雷鋒網

日前,數位新聞中心( the Tow Center for Digital Journalism)和布朗媒體創新研究所(the Brown Institute for Media Innovation)聯合技術專家和記者召開了政策交流論壇,一起討論了AI如何影響新聞媒體,以及如何將AI更好的應用於新聞領域這一議題。在本次報告中,他們著重討論了這四個問題:

1、記者如何利用AI來輔助報導?

2、AI可以替代哪些新聞室角色?

3、新聞機構還未應用AI技術的領域有哪些?

4、AI最終將成為新聞報導不可或缺的一部分嗎?

議題一:AI在新聞業的應用

如大家所瞭解,每個新聞編輯室都有一套獨特的AI方法。經過幾次案例研究,AI在新聞機構中貢獻最大的活動共有以下三類:

在資料量很大或很複雜的情況下,AI可以作為一種突破性工具,排除人身認證的外部或特殊情況--這個角色完全適用於標準的新聞編輯室的流程。

識別趨勢(或偏離趨勢):AI的大量計算能力可以説明提供資料聚合的表徵,或有可能按照時間、地理或人口統計分組。此外,它還能快速識別離群資料。

檢查AI或計算的應用程式可以作為故事本身的主題:演算法是由人類構建的,所以不可避免帶有人類的偏見——如何通過這些工具找到複雜的思想?當這些工具被國家或城市具體採納並運用時,又會發生哪些不可預知的情況?

1、幾大具體案例

AI可以通過以下幾種方法來增強記者的工作:分類檔;識別資料中的異常值。當然,在討論的過程中經驗豐富的人類經常會運用真實新聞來做判斷,以作為新聞編輯室工作的重要組成部分。雖然有許多有據可查的由AI編寫的新聞故事,例如體育賽事的總結、公司財報的發佈,甚至地震等資料模式,但很少有與會者認為記者的工作會完全被機器或演算法取代。只有在人類的操縱和驗證結果的情況下,AI才能更好的幫助自由作家持續不斷地重寫相同的故事,並處理更多的原始報告。

最近的一些案例,比如,《洛杉磯時報》記者使用分類器檢測LAPD(洛杉磯市警局)降級犯罪分類的實例,取得了顯著成功;亞特蘭大憲法機構對醫生實施的性虐待的調查;路透社的主題建模,以尋求最高法院上訪問的權利中心;ProPublica(美國一家非政府、非盈利的網路新聞機構)日前聯合谷哥推出一個基於機器學習的工具——仇恨犯罪新聞紀錄索引。它通過對大量新聞文章的分析,建立起一個全國範圍內的能預測仇恨犯罪發生地的預警圖;《紐約時報》在報導總統川普的就職典禮新聞事件中,使用了人臉識別技術以獲取觀眾席的情況資訊。

對於一些記者來說,他們可能會在GitHub抓取示例代碼,並將其應用於新聞報導中。但是,除非這名記者對這些工具或技術有很好的瞭解,不然可能會出現不法行為的風險。

2、記者在使用資料時應注意陷阱

記者在使用從社交媒體到政府機構的資料時,應小心陷阱。他們必須小心評估這些新型資訊來源的可靠性,特別是在涉及AI的情況下。比如,使用Twitter作為社交媒體平臺的記者,必須謹慎使用這些資料來分析社會行為。

3、出版商的挑戰:包括大型和小型新聞機構

所有這些新工具,新聞機構都有責任和義務訓練記者、編輯以及開發人員如何正確的使用它們。雖然像《紐約時報》這種大型新聞機構,資金可能不是問題。但對於資源較少的小型新聞機構來說,這將是一個不小的挑戰。

新聞媒體的領導人可能面臨的一個決定在於,如何與他人建立AI工具使用上的合作。因為使用複雜資料集和自訂演算法進行的調查分析和團隊建設可能需要幾個月的時間,而這並不是所有的新聞機構都能獨自完成的。

與學術機構和研究人員合作可以成為新聞機構在新聞編輯室中開始使用AI工具的好方法。不過,新聞編輯室和學術實驗室的文化差異很大,二者在創造AI工具的目標上可能會存在分歧。

議題二:AI技術如何適應新聞報導規則?

AI技術如何適應新聞管道?如前所述,AI在報導、內容創建、分發和受眾互動起的作用越來越大。比如,近日,開發眾包、動腦發想和事實核查工具正被用來收集資料資訊,特別是用於構建相關資料。在當代的新聞編輯室中,自動化已成為競爭的關鍵工具,不僅是為了獲取客戶關注,還用於和大型平臺的競爭,如Netflix、Facebook和亞馬遜。

1、自動化寫作和個性化推薦

自動化可以在短時間內處理大量的任務,例如在幾分鐘甚至幾秒鐘內分析和匯總大量的資料,從而盡可能的減少記者的負擔。另一方面,許多社交媒體平臺和網路公司也都實證了個性化推送是捕捉注意力的一種有力工具。如,Netflix使用行為資料為觀眾提供觀看建議;亞馬遜的成功部分原因在於它為購物體驗提供資料驅動的個性化設計

1)案例一:Wibbitz

Wibbitz公司和《今日美國》報的體育報導部門開始合作,該公司可以把媒體記者寫作的文字報導在短短幾秒鐘內製作出短視頻。Wibbitz公司最核心的AI技術是「文本轉換視頻技術」(Text-to-Video Technology)。一開始,Wibbitz的AI技術會分析一個故事腳本,然後在文字報導的基礎上形成摘要,緊接著,AI將這個腳本摘要轉換成一個伴隨有照片、圖形及其它更多媒介形式的帶有畫外音的短視頻。實際上,整個製作過程就是利用AI驅動軟體,將一個文字報導內容壓縮為一個故事腳本,然後將一系列圖像或視頻片段串接在一起,並添加一些畫外音。

2)案例二:BuzzFeed

BuzzFeed是另一個進入AI領域的知名媒體。在2016年美國大選期間,BuzzFeed的「新聞開放實驗室」(Open Labs for Journalism)開發了一個新聞機器人(Buzzbot),這個新聞機器人可以搜集共和黨全國代表大會中來自不同消息來源的新聞資訊。AI驅動的新聞聚合器可以追蹤即時選舉結果和投票報導,這樣媒體記者就不用通過人力來完成這些工作。有了新聞機器人,BuzzFeed的記者可以集中精力去報導更加複雜和場景化的新聞故事,而這類新聞是機器學習解決方案技術,自身無法生產出來的。

3)案例三:路透社

路透社為了解決真假資訊辨識的問題,他們使用新的新聞追蹤系統叫做News Tracer,針對每天5億則Twitter資訊進行演算,從假新聞、不合理的新聞、廣告、雜音中找到真的新聞事件,有了演算法的輔助,記者可以從社交媒體眾多資訊中脫身,把更重要的時間用來挖掘故事。News Tracer 與其他監控工具不同之處在於其模仿的是記者的思考方式,程式人員在這套演算法中植入 40 個評量指標,諸如原始貼文者的地點與身份、新聞的傳播方式等,建立一個新聞可信度評分,該系統還會針對記者確定可靠的新聞進行來源交叉檢查,並識別其他潛在的消息來源。

4)案例四:美聯社

美聯社是最早採用AI技術的媒體組織之一。早在2014年,美聯社與美國「自動化洞察」(Automated Insights)公司合作——該公司開發出了自動化寫稿程式Wordsmith,它當時是世界上唯一的公共自然語言生成平臺——來程式化的寫作許多上市公司公開發佈的季度收入報告相關新聞報導。在將人工智慧技術用於處理季度收入報告之前,美聯社新聞記者每季度只能創作幾百個新聞故事,結果導致數千個公司的收入報告,沒有被寫作報導。在使用Wordsmith自動化寫稿程式之後,美聯社有關公司收入的新聞報導數量增加了12倍。

2、評論系統和觀眾參與

今年6月,《紐約時報》與谷歌母公司Alphabet旗下技術孵化器Jigsaw合作,運用後者的Perspective機器學習技術來過濾新聞報導的評論數量。據《雷鋒網》瞭解,此前《紐約時報》每天安排14名審查員處理約12000條評論,每篇文章下方的評論有20%是打開的。運用該AI工具後,其可以把有害的評論和健康正確的評論阻隔開來,不僅可以減少修正評論人員的25%的工作量,還能將文章下方的評論取的打開率提升至80%。

《紐約時報》想利用該AI工具,建立一個平臺,以便審查員和讀者進行更加深入的交互。不過,這其中仍然存在一大挑戰,即如何建立共同點,且尊重不同的觀點,讓新聞報導和讀者的區域觀點保持一致。通過這一機器學習工具,審查員不僅可以提高處理評論的速度,還可以通過預測模型輕鬆組合相似的評論。

議題三:演算法與倫理:究竟該怪人類還是演算法?

在新聞編輯室使用AI工具,如機器學習、自然語言處理、人臉識別和機器視覺,這個過程不可避免會帶上人類倫理的思考痕跡。這裡牽扯到三個方面的內容。

1、透明度和責任感

由於AI在新聞工作中可以扮演很多角色,因此在解釋何時何地以及如何使用AI時,更應該謹慎解釋。如涉及聊天機器人和用戶的互動時,如果由AI 來驅動,這個機器人又該如何向觀眾解釋自己的運行原理?觀眾需要知道故事的構建過程,以及機器在創建過程做了哪些選擇?當涉及AI時,最終應該追究誰的錯誤?如何解釋由人類創建的演算法引起的錯誤?究竟該怪人類還是演算法?

據ProPublica的研究表明,演算法偏差在數學上是不可避免的。即便如此,新聞工作者應該對這些AI系統負責,並鼓勵在演算法系統的構建流程中建立問責制。

2、編輯性決定和偏見

演算法在新聞策劃中的作用越來越普遍,這些代表編輯性決策的演算法需要用人類的方式來編寫。以聊天機器人為例,電腦就像人類一樣,如果他們不瞭解內容,就不能進行對話。機器人能夠談論的唯一領域就是我們可以為該會話語境構建模型。

此外,為了讓去偏見概念更加複雜化,通常會讓資料更具中性。一些研究表明,有許多類型的機器學習,都是用來「監督學習」。演算法無法重現人類的心理模型,但能重構因果關係。

3、資料的倫理使用

資料的倫理使用是每個記者需要面對的根本問題,同樣的原則也適用於處理大量資料的公司。雖然有許多社交媒體平臺會向記者提供資料,但資料發佈商和平臺之間關於開放資料獲取的關係依然複雜。

許多演算法的性質更像是一個「黑盒」,其掩蓋了對軟體正在做的決定的批判性認識。所以,記者需要盡可能的在研究和報導中使用這種批判性態度。

七大研究結論

如前所述,經過這次研究,關於AI究竟是對新聞業是威脅還是助力,我們可得到以下7大發現。

1、AI工具可以説明記者講述或報導此前不切實際或技術上無法實現的新故事。雖然AI可能會轉變新聞業,但它會增強而不是取代記者的工作。事實上,為了正確使用AI技術,人類必須隨時保持機敏狀態。

2、設計AI的技術人員和使用AI技術的記者之間存在知識差距和溝通差距,這樣可能導致新聞事件的不正之風。

3、讀者在如何使用AI工具進行分析、識別模式以及報告故事中的發現時,應該得到一種透明的方法。

4、雖然AI和資料的交互可以為讀者參與、獲利和個性化新聞推送提供新的機會,但是在創建回聲室和繼續致力於新聞公共服務使命之間找到平衡存在挑戰。

5、資料的倫理使用和披露(如何收集,儲存,使用,分析和分享使用者資訊)是記者需要面對的一個根本問題。

6、AI有潛力增強記者的工作,但在開放資料獲取上依然存在挑戰。

7、AI是不可以預知的。我們不能自信地預測哪裡會出現最大的問題,所以技術專家和記者需保持警惕,以確保AI系統的準確性。

結語

照目前的情況來看,AI對新聞業的助力遠大於威脅。未來採用AI輔助報導將成為各新聞機構在競爭賽道上的一大趨勢。只是,在應用AI的道路上,人類還應儘快釐清演算法倫理的追責問題,以便提前清除後患。

注:報告原文來自哥倫比亞大學新聞學院,由Mark Hansen、Meritxell Roca-Sales、 Jon Keegan和George King四位共同編寫,雷鋒網對整篇報告進行了重點編譯和解讀。報告原文可關注“雷鋒網”公眾號獲得。

(作者李秀琴,本文由 雷鋒網 授權轉載)

分享給朋友:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

相關新聞

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面