English  |  正體中文  |  简体中文  |  Items with full text/Total items : 21921/27947 (78%)
Visitors : 4238012      Online Users : 438
RC Version 6.0 © Powered By DSPACE, MIT. Enhanced by NTU Library IR team.
Scope Tips:
  • please add "double quotation mark" for query phrases to get precise results
  • please goto advance search for comprehansive author search
  • Adv. Search
    HomeLoginUploadHelpAboutAdminister Goto mobile version


    Please use this identifier to cite or link to this item: http://140.128.103.80:8080/handle/310901/5041


    Title: 以結合顏色及形狀特徵設計色情圖片過濾器
    Other Titles: Designing Pornography Filters by Weighted Color-Shape Composite Features
    Authors: 王欽帝
    Contributors: 蔡清欉
    Tsai, Ching-Tsorng
    東海大學資訊工程學系
    Keywords: 分類器;召回率;特異性;靈敏度;過濾器
    classifier;recall rate;specificity;sensitivity;filter
    Date: 2004
    Issue Date: 2011-05-19T07:32:47Z (UTC)
    Abstract: 隨著網際網路的發達,瀏覽者無可避免地暴露在多種令人不悅的,諸如暴力或色情的多媒體內容下。 因此,發展阻攔具這些內容網站的技術顯得愈益迫切。 然而,何謂「色情圖片」,並沒有一個明確、客觀的定義。 再加上色情圖片的樣式非常繁雜,使得在判別色情圖片上更加困難,大體而言,會遇到的困難有:(1) 人有各種姿式,有可能單人、雙人或多人,或取景角度不一 (2)人體可能部分遮蔽,或只曝露身體某部份 (3)圖片的解晰度不一,以及 (4)照明度的影響。 本論文將檢視業界的成果,並回顧之前相關學術論文所提出的方法,並依據現有方法的缺點,提出將特徵加權,並分階段過濾的演算法。 訓練階段,依序取出色情圖片樣本的色彩特徵及形狀特徵,組成特徵向量,根據各特徵的變異,決定其權重,並算出加權後的欉集中心。 然後,在測試時,取出測試圖片的顏色及形狀特徵,以相對應的權重加權,決定一半徑,若加權後的特徵向量與欉集中心的距離小於此半徑,則判定為色情類。 本篇論文的方法效法James Ze Wang的方法分為兩個階段,第一個階段先將膚色比例小於某門檻值的圖片過濾,而在第二個階段再以所找出膚色區加權後的形狀特徵,找出色情圖片。 在無法取得Forsyth, Jones-Rehg, 及J. Z. Wang的整個ROC (Receiver Operating Characteristic)曲線下,試以固定FP(False Positive)率,來比較TP(True Positive)率,結果發現,在固定FP率為4.2%,系統的TP率為80.9%高於Forsyth系統的42.7%,並略高於Jones-Rehg系統的75.0%,而在固定FP率為9%時,則TP率為84.5%,遜於J. Z. Wang的WIPE系統的96%。
    Appears in Collections:[資訊工程學系所] 碩士論文

    Files in This Item:

    File SizeFormat
    092THU00394019-001.pdf743KbAdobe PDF0View/Open


    All items in THUIR are protected by copyright, with all rights reserved.


    本網站之東海大學機構典藏數位內容,無償提供學術研究與公眾教育等公益性使用,惟仍請適度,合理使用本網站之內容,以尊重著作權人之權益。商業上之利用,則請先取得著作權人之授權。

    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library IR team Copyright ©   - Feedback