科技與工程學院

Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/5

沿革

科技與工程學院(原名為科技學院)於87學年度成立,其目標除致力於科技與工程教育師資培育外,亦積極培育與科技產業有關之工程及管理專業人才。學院成立之初在原有之工業教育學系、工業科技教育學系、圖文傳播學系等三系下,自91學年度增設「機電科技研究所」,該所於93學年度起設立學士班並更名為「機電科技學系」。本學院於93學年度亦增設「應用電子科技研究所」,並於96學年度合併工教系電機電子組成立「應用電子科技學系」。此外,「工業科技教育學系」於98學年度更名為「科技應用與人力資源發展學系」朝向培育科技產業之人力資源專才。之後,本院為配合本校轉型之規劃,增加學生於科技與工程產業職場的競爭,本院之「機電科技學系」與「應用電子科技學系」逐漸朝工程技術發展,兩系並於103學年度起分別更名為「機電工程學系」及「電機工程學系」。同年,本學院名稱亦由原「科技學院」更名為「科技與工程學院」。至此,本院發展之重點涵蓋教育(技職教育/科技教育/工程教育)、科技及工程等三大領域,並定位為以技術為本位之應用型學院。

107學年度,為配合本校轉型規劃,「光電科技研究所」由原隸屬於理學院改為隸屬本(科技與工程)學院,另增設2學程,分別為「車輛與能源工程學士學位學程」及「光電工程學士學位學程」。

News

Browse

Search Results

Now showing 1 - 3 of 3
  • Item
    基於圖像串接和深度學習的改良生咖啡豆分類方法
    (2024) 温鑫; Wen, Xin
    為了解決生咖啡豆在影像辨識上的分類困難並提升精確度,這篇論文提出了一種通過串接不同的影像增強技術來融合不同的特徵提取演算法,以提高對生咖啡豆的辨識準確率。為了從原始影像中獲得各種關鍵特徵,我們選用了自適應閾值、位元平面分割、黑帽運算、Canny邊緣偵測、灰階、直方圖等化、Laplacian濾波、頂帽運算與非銳化濾鏡九種常見的影像增強方法。我們提出先在原本九種影像增強算法中挑選出與基準真相相關性較高的方法,並且僅將原始影像的RGB影像平面替換成相關性較高的影像處理方法,藉著多種特徵提升模型辨識度。在這項研究中,我們使用MobileViT進行實驗,最後選擇相關性較高的處理方式作為特徵融合的素材,經過影像串接產生的影像資料集作為新的輸入重新訓練。我們將不進行任何影像增強的分類方法視為基準。在二分法中,位元平面分割、直方圖等化和非銳化濾鏡的組合達到了96.9%的準確率,相對於原始方法提高了約5.5%。如果使用去除背景的相同資料集,相同的組合可以達到了97.0%的準確率;當我們選擇三分法進行實驗時,同樣都是由位元平面分割、直方圖等化和非銳化濾鏡的組合,分別達到了96.8%以及97.4%的準確率,較原始方法提升6.7%與4.9%。最後我們使用MobileNetV3驗證研究結果,在二分法的情況下,相同的影像增強組合分別在未去除背景與去除背景的影像可以獲得最高的99.12%與99.21%的準確率,相較原始方法有0.39%與0.44%的提升;如果以三分法再次進行實驗,與原始方法比較,大約分別有0.92%以及0.79%的提升,取得了98.73%與99.25%的準確率。
  • Item
    深度學習融入有價證券之微結構真偽辨識-以振興三倍券為例
    (2021) 邱曉昱; Chiu, Hsiao-Yu
    身處在充滿人工智慧結晶的時代,我們視科技為理所當然,並享受著其帶來的便利與生活品質,然而在這項技術逐漸嶄露頭角之際,各類威脅也倚靠著科技滋長茁壯。政府2020年為復甦經濟所發放之「振興三倍券」於使用期限內曾傳出偽造事件,為了能精準判別整張有價證券真偽,本研究主旨為使用深度學習CNN (Convolutional Neural Network ),有效且快速辨別真偽振興三倍券微結構取樣影像組合,進而依此推測判別出整張紙券真偽,同時以減少訓練樣本數達到高辨識率為目標,取得最佳學習尺寸組合,最後歸類分析錯誤辨識微結構印刷類型並於原券定位,為此次研究目的。首先將面額200元及500元之紙本振興三倍券掃描定義為掃描真券;與之複印後再次掃描為模擬偽券,後以尺寸32×32、64×64、96×96及128×128 pixels進行隨機局部不完全重複取樣,建立訓練及測試影像資料集,分組後個別輸入CNN模型訓練測試,得出辨識正確率與錯誤辨識影像於原券上之分佈。實驗結果顯示,依照各組辨識正確率之比例及趨勢可成功推測判別整張振興三倍券真偽,且印證研究使用之CNN模型不需學習全尺寸之局部影像組合,僅訓練最大及最小尺寸之影像資料集,即可達到預期之顯著辨識成效;至於透過錯誤辨識分佈的統整,發現無論掃描真券或模擬偽券的局部取樣,所辨識的錯誤特徵皆有較高的比例集中於鈔券的凹版印刷處。本研究提出一個不需藉由專業人士判斷有價證券影像,基於CNN模型即可有效辨別鈔券局部微結構真偽的方法,並以此實驗結果為基礎,未來可結合手機拍攝取樣,推測於拍攝指定距離範圍內之鈔券影像可精確判讀,達到更加便民與實用之效果。綜合上述,此研究不論是在產業界抑或是學術界皆具有一定程度之應用價值。
  • Item
    應用於SLAM系統之具有改良式SIFT演算法的立體視覺及其在FPGA上的實現
    (2020) 黃而旭; Huang, Erh-Hsu
      本論文設計與實現一個立體視覺(Stereo Vision)尺度不變特徵轉換(Scale- Invariant Feature Transform, SIFT)的影像辨識系統,並經由場域可程式化邏輯陣列(Field Programmable Gate Array, FPGA)的硬體加速電路實現。可以應用於即時定位與地圖構建系統(Simultaneous Localization and Mapping, SLAM)中,有效的改善視覺型機器人在自主導航下所需要的影像匹配與地圖建立等議題。在所設計的視覺系統中,機器人能於未知的環境下,能以高運算效率的方式即時比對每張拍攝的影像畫面,匹配出雙眼視覺攝影機兩張影像畫面之間的共同特徵點,並利用雙眼視覺攝影本身的結構特性,計算出各個特徵點到實際攝影機的距離,達到精準匹配影像與距離估測的目標。   本論文中,提出了新的梯度計算方法以及降低特徵描述子維度的方法,這可以大幅減少SIFT的硬體使用量及加快運算速度。此外,本論文也提出了一套立體匹配的方法,透過KITTI資料庫做為輸入影像,並使用對極幾何以及限制範圍的方法來完成立體匹配,並且完成深度的計算。本研究採用Altera的DE2i-150,操作頻率為50MHz,使用KITTI資料庫的立體影像,並擷取影像中心的640×370的大小作為輸入影像。在640×480的輸入影像中,SIFT有著205fps的影像更新率與54,911的邏輯元件使用量。在640×370的輸入影像中,立體視覺SIFT的影像辨識系統有著181fps的影像更新率及140,303的邏輯元件使用量。