專屬客服號
微信訂閱號
全面提升數(shù)據(jù)價值
賦能業(yè)務(wù)提質(zhì)增效
兒童被虐待問題一直是社會的毒瘤,扎在父母心中的一根刺,很多人工智能公司也一直致力于研究相關(guān)技術(shù)來解決這一問題。Google近日發(fā)布了一套AI工具包,用于快速審查大量的兒童性虐待內(nèi)容,同時盡量減少人工檢查的需要。
資料圖
該工具使用深度神經(jīng)網(wǎng)絡(luò)掃描虐童圖片,并將這些圖片按照可能被瀏覽的幾率進行排序。此外,該套工具還能標(biāo)記之前未發(fā)現(xiàn)過的性虐童內(nèi)容。
該工具包通過Google的內(nèi)容安全編程包免費提供給企業(yè)合作伙伴和非政府組織。雖然不能確定是否能顯著減少性虐童圖片的數(shù)量,但可以協(xié)助發(fā)現(xiàn)和報告兒童性虐待。
目前,該領(lǐng)域的大多數(shù)技術(shù)解決方案都是通過根據(jù)以前識別的性虐待材料的目錄檢查圖像和視頻來實現(xiàn)的。(參照PhotoDNA,該款工具是由微軟開發(fā)并由Facebook和Twitter等公司部署的)這種被稱為“爬蟲”的軟件是阻止人們共享已知的先前已識別的CSAM的有效方法。但它無法識別尚未被標(biāo)記為非法的材料。為此,人類必須自己審查有關(guān)內(nèi)容。
這便是谷歌新的AI工具將提供幫助的地方:該工具利用谷歌在機器視覺方面的專業(yè)知識,通過對標(biāo)記的圖像和視頻進行排序并“優(yōu)先考慮最可能的CSAM內(nèi)容以供審查”來協(xié)助人類。這樣,工作人員將能夠提高審查的效率。
中國近年來在人工智能方面也投入了大量資金,但大多數(shù)視頻分析系統(tǒng)目前在僅僅在國防安全領(lǐng)域,包括國防和反恐活動中使用。
紅黃藍(lán)幼兒園只是近年來的一些幼兒園虐待案件之一,其中一些已經(jīng)被監(jiān)控攝像頭發(fā)現(xiàn),引發(fā)了家長們對安全隱患的擔(dān)憂,促使國務(wù)院對全國范圍內(nèi)的幼兒園進行檢查。
清華大學(xué)電子工程系教授Zhang Li說,他們和中國其他的頂級AI實驗室很快會將資源轉(zhuǎn)移到解決防止兒童虐待的問題。
Zhang表示,國內(nèi)許多機場,火車站和公共場所已經(jīng)在使用這項技術(shù)來檢測異常行為,使用的方法有面部識別等等。
但是,要在幼兒園使用這一技術(shù),研究院需要獲得大量的數(shù)據(jù),這是一個難題,他說。
“有些幼兒園可能不愿意分享數(shù)據(jù),因為這些視頻可能包含敏感信息。一些家長也可能有隱私方面的擔(dān)憂,“Zhang說。
北京中國科學(xué)院模式識別國家實驗室研究員Huang Kaiqi表示,計算機可以通過跟蹤人體圖像中的每個像素來跟蹤移動或手勢,因此可以檢測到微小的行為,如兒童被扎針。
“虐待通常包含一系列的行為。這些行動可以形成一個模式,可以通過機器學(xué)習(xí)和識別。“他說。
其他檢測方法如聲音和熱感應(yīng)也可以用來收集更多的信息,這樣行為跟蹤系統(tǒng)可以做出更準(zhǔn)確的判斷。
例如,如果孩子在教師采取某種行動后反復(fù)哭泣,系統(tǒng)可能會發(fā)出警報。公安部負(fù)責(zé)全國監(jiān)視和報警系統(tǒng)的高級警官表示,將考慮在學(xué)校、包括幼兒園的安全系統(tǒng)中增加人工智能技術(shù)。
據(jù)官方人士透露,北京在2012年頒布了一項規(guī)定,要求所有學(xué)校都安裝安全攝像頭,但許多系統(tǒng)沒有專門的人員進行監(jiān)控,硬盤通常只是被保存起來以備不時之需。
人工智能擁有一雙永不眨眼的眼睛,一個永不疲倦的頭腦。單靠技術(shù)無法從根本解決問題,只有技術(shù)研發(fā)與公眾素質(zhì)并行提升,才有可能把對孩童的傷害扼殺于搖籃。
Google發(fā)布免費AI工具包,可快速審查性虐童圖片
請完善以下信息,我們的顧問會在1個工作日內(nèi)與您聯(lián)系,為您安排產(chǎn)品定制服務(wù)
評論