The Guardian公開內部文件,剖析Facebook內容審理方向
早兩個星期,在社交媒體的新聞中,Facebook加聘3,000人的內容審理團隊(這團隊本來已經有4,500人),因為這大半年來,用Live直播自殺/殺人再自殺,又或者假新聞,甚至是Hate Speech等內容在Facebook越來越多。
多到甚麼程度呢?原來單是性勒索及色情報復的內容每月都有54,000宗;單是今年1月已經有14,000個Facebook帳號因為這些原因而被禁用,其中有33宗個案更牽涉兒童色情。除了數字反映這龐大的工作量,其實他們要面對的內容很多也是不堪入目,甚至是影響心理的。
The Guardian這兩天就公開了Facebook的內部文件,讓大家了解Facebook他們如何決定刪除或保留內容。這個Facebook Files的專題包括了多個範疇,包括虐待動物、虐兒、暴力、有關性的內容,以及Hate Speech。每位Moderator入職時,均有兩個星期訓練去了解審查內容的指引。以下就是其中一些主要方針:
有關自殺,Facebook是容許用戶直播自殺(或自殘),因為他們認為這是一個方法幫助到需要幫助的人。
不過Facebook卻稱他們不會容忍鼓勵及協助自殺或自殘。而當自殺/自殘者不再需要協助,又或者事件再沒新聞價值時,就需要從Facebook移除。
有關虐待人/動物,Facebook的焦點並非圖片或影片中有甚麼暴力或虐待行為,而是貼這些內容的人是否「享受」或「讚揚」這些暴力或虐待行為。其實某程度上,Facebook是認為這類圖片是可以引起大家對虐待動物的關注。(其實有保護動物的團體也會顯示動物受虐或沒有照顧之後,可憐的照片,而且更不單只在Facebook。其想法大概差無幾吧?)
有關威嚇他人(對他人動粗),Facebook主要檢視其內容是否對個別人士構成真正的恐嚇。本常我們分享一些看不過眼的新聞內容時,很可能會加上「去死啦!」,甚至「我真係想殺死佢」之類。但這在Facebook來說並不是一個「Credible Threat」。但如果發佈內容的人加上恐嚇的細節,就有機會從Facebook刪除。
Facebook是親疏有別的。個別類型的人,如一國之君等「Vulnerable Groups」人士,Facebook的審查是嚴格得多。甚至連「Someone shoot Trump」等,都會刪除。又或者「I’ll destroy the Facebook Dublin Office」也不能留低。那麼如果在Facebook重演「炸迪迪尼」之類的言論,雖然Facebook未必會報警,但可能都會被審查掉。
至於性的內容,Facebook也承認這是Moderator最難的一環。其實他們認為應該要用人工智能來作檢查才好。
Facebook其實容許適度有關性的內容。其內容審理文件中引了這些例子:「 open mouth kissing, clothed simulated sex and black-barred or pixilated images」至於性交的圖片,因為只在某性情況下容許,這樣的指引未免令審理的專員難以執行他們的職務。
不過最Facebook最需要打擊的,就一定是性勒索(Sextortion)及色情報復(Revenge Porn)。當中包括以個人親密的相片或影片勒索(金錢或有其他要求),否則要脅發佈更多性愛內容;甚至在未經他人同意之下,發佈了對方的性愛圖片或影片以作報復等,都是違規。
有關恐怖份子的內容,主要是看發佈內容的角度。這跟之前談過的幾點很相似。如果是評論或報導有關恐怖份子 / 恐怖襲擊等事情,Facebook的審理專只是不會干預的;但如果內容是支持、讚揚或表示自己代表恐怖組織,那就會直接刪除。
完整的Facebook內容審理指引,可瀏覽The Guardian的報導。
相關文章:
拉雜談Admango的社交媒體廣告費盤點報告
Facebook打擊假Live Video,Live Emoji Poll屬違規
廣告商杯葛,YouTube生態受打擊
又要威又要戴頭盔:紙媒 vs 網媒
對比香港人口,看香港的Facebook假帳戶情況
#2016Review 新聞媒體盤點