科技與工程學院

Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/5

沿革

科技與工程學院(原名為科技學院)於87學年度成立,其目標除致力於科技與工程教育師資培育外,亦積極培育與科技產業有關之工程及管理專業人才。學院成立之初在原有之工業教育學系、工業科技教育學系、圖文傳播學系等三系下,自91學年度增設「機電科技研究所」,該所於93學年度起設立學士班並更名為「機電科技學系」。本學院於93學年度亦增設「應用電子科技研究所」,並於96學年度合併工教系電機電子組成立「應用電子科技學系」。此外,「工業科技教育學系」於98學年度更名為「科技應用與人力資源發展學系」朝向培育科技產業之人力資源專才。之後,本院為配合本校轉型之規劃,增加學生於科技與工程產業職場的競爭,本院之「機電科技學系」與「應用電子科技學系」逐漸朝工程技術發展,兩系並於103學年度起分別更名為「機電工程學系」及「電機工程學系」。同年,本學院名稱亦由原「科技學院」更名為「科技與工程學院」。至此,本院發展之重點涵蓋教育(技職教育/科技教育/工程教育)、科技及工程等三大領域,並定位為以技術為本位之應用型學院。

107學年度,為配合本校轉型規劃,「光電科技研究所」由原隸屬於理學院改為隸屬本(科技與工程)學院,另增設2學程,分別為「車輛與能源工程學士學位學程」及「光電工程學士學位學程」。

News

Browse

Search Results

Now showing 1 - 10 of 10
  • Item
    基於深度學習之光流法應用於全天空影像之日射量估計與預測
    (2023) 陳家豪; Chen, Chia-Hao
    因應太陽能發電日益重要,又因太陽能發電量受制於日射量的影響,同時考量太陽能發電是間歇性的能源,故提出一種基於深度學習光流應用於全天空影像之日射量估計與預測的方法。由於日射量變化容易受到天氣狀況影響,本文藉由全天空影像,建立一個以影像特徵為基礎之日射量估計與預測系統,其影像特徵包括,利用紅藍比例法計算影像中雲層比例、雲層厚度,及藉太陽位置演算法得到影像中太陽位置,分析太陽附近雲層特徵,萃取全域與局部的雲層權重。同時用基於深度學習的光流法推算雲層移動的狀態,並製作未來數分鐘之天空預測圖像,將這些預測圖像作長短期記憶(LSTM)之輸入特徵,日射量作為訓練輸出,其深度學習光流法是透過卷積神經網路來實現。本文將資料集區分為月、季、半年與一年,分別進行10分鐘至60分鐘的日射量預測。同時,本文使用多個效能指標評估效果,包括平均絕對誤差(Mean Absolute Error)、均方根誤差(Root Mean Square Error)與判定係數(R^2)。最後,與文獻的方法進行比較,本文所提的方法具有較好的結果。
  • Item
    基於非監督式生成對抗網路及對比學習之水下影像品質回復
    (2023) 宋奕泓; Sung, Yi-Hung
    近年來水下環境之相關應用的重要性與日俱增,比如:水下資源探勘及水下環境監控。這些應用往往需要由水下無人載具來擷取水下數位影像資料以供後續之資料分析及其相關應用 (例如:水下物件偵測及水下影像分類等相關應用)。然而水下影像品質受到許多環境因素影響而造成影像退化,包括光線折射、反射等等,如此可能使得基於水下影像之相關應用無法得到良好的效果。近年來,隨著深度學習技術蓬勃發展,研究者提出許多基於深度學習的模型來改善水下影像的品質。目前現有方法中,以具備成對影像資料之監督式深度學習模型為主。成對影像學習雖然能以較輕量模型得到好的影像品質回復效果,但礙於現實難以取得成對的原始水下影像及其還原之陸上影像,因此模型訓練上受到許多限制。為了解決這個限制,許多研究以人工合成之影像來建立成對之訓練影像資料集。然而,人工合成之訓練影像資料集未必能反映真實的水下影像特性。為了解決此問題,最近已有研究提出使用生成對抗網路及非成對影像資料來進行深度學習網路訓練。本論文提出一基於非成對影像資料及生成對抗網路之深度學習模型,來處理水下影像回復的問題。本論文提出基於非成對訓練影像資料集及利用生成對抗網路架構訓練一影像領域轉換生成器將輸入之水下影像轉換為對應之陸上影像 (回復之水下影像),其中我們利用對比學習及多樣損失函數來進行網路訓練。實驗結果已證實我們的方法可得到較佳的回復影像品質且優於 (或近似) 現有基於成對/非成對訓練資料之基於深度學習之水下影像回復網路。
  • Item
    疊代推進生成對抗網路用於陰影去除
    (2022) 吳建霖; Wu, Chien-Lin
    隨著科技的高速發展,深度學習在工業、軍事、民生科技處處都有大量的應用,現今運用在影像處理上的深度學習技術不斷進步,影像的去除如影像除霧、去反光、去陰影等都是電腦視覺領域中具挑戰性的任務。本論文研究目的為針對影像陰影去除提出了迭代推進生成對抗網路,首先我們輸入陰影圖藉由兩個生成器網路分別生成出無陰影的圖及殘差陰影圖,將兩者合成得到陰影圖,與輸入進行比對,最後將合成的圖再次輸入至網路重複上述步驟直到收斂,透過迭代推進的方式提升陰影移除的效果。此外為了使結果更加優異,我們的生成器網路加入了注意力機制,讓模型更專注於影子的部分,以及長短期記憶,使我們在長序列訓練過程中有更好的表現,最後是修復網路,以進一步改善生成的結果。我們與傳統方法以及近年來基於深度學習所提出的陰影去除方法比較,實驗結果表明本論文所提出的迭代推進方法有更優異的結果。
  • Item
    深度學習融入有價證券之微結構真偽辨識-以振興三倍券為例
    (2021) 邱曉昱; Chiu, Hsiao-Yu
    身處在充滿人工智慧結晶的時代,我們視科技為理所當然,並享受著其帶來的便利與生活品質,然而在這項技術逐漸嶄露頭角之際,各類威脅也倚靠著科技滋長茁壯。政府2020年為復甦經濟所發放之「振興三倍券」於使用期限內曾傳出偽造事件,為了能精準判別整張有價證券真偽,本研究主旨為使用深度學習CNN (Convolutional Neural Network ),有效且快速辨別真偽振興三倍券微結構取樣影像組合,進而依此推測判別出整張紙券真偽,同時以減少訓練樣本數達到高辨識率為目標,取得最佳學習尺寸組合,最後歸類分析錯誤辨識微結構印刷類型並於原券定位,為此次研究目的。首先將面額200元及500元之紙本振興三倍券掃描定義為掃描真券;與之複印後再次掃描為模擬偽券,後以尺寸32×32、64×64、96×96及128×128 pixels進行隨機局部不完全重複取樣,建立訓練及測試影像資料集,分組後個別輸入CNN模型訓練測試,得出辨識正確率與錯誤辨識影像於原券上之分佈。實驗結果顯示,依照各組辨識正確率之比例及趨勢可成功推測判別整張振興三倍券真偽,且印證研究使用之CNN模型不需學習全尺寸之局部影像組合,僅訓練最大及最小尺寸之影像資料集,即可達到預期之顯著辨識成效;至於透過錯誤辨識分佈的統整,發現無論掃描真券或模擬偽券的局部取樣,所辨識的錯誤特徵皆有較高的比例集中於鈔券的凹版印刷處。本研究提出一個不需藉由專業人士判斷有價證券影像,基於CNN模型即可有效辨別鈔券局部微結構真偽的方法,並以此實驗結果為基礎,未來可結合手機拍攝取樣,推測於拍攝指定距離範圍內之鈔券影像可精確判讀,達到更加便民與實用之效果。綜合上述,此研究不論是在產業界抑或是學術界皆具有一定程度之應用價值。
  • Item
    以資訊植入及深度學習提升圖像化二維條碼實體輸出的辨識能力之研究
    (2021) 何怡慧; Ho, Yi-Huei
    QR code 是目前最普遍被採用的二維條碼,由於其為黑白模塊所組成,影響視 覺美觀,且在列印輸出時,因尺寸大小、網點擴張等印刷條件因素,導致條碼資訊 容易失真,影響解碼辨識。為了能夠將印刷輸出之小尺寸美化 QR code 保持視覺美 觀並且穩定解碼,因此本文提出了一套系統性的圖像化 QR code 資訊植入技術,列 印後掃描將辨識結果進行錯誤分析,了解 QR code 之黑點與白點資訊點模組的錯誤 特性並加以改善,最後以深度學習辨識來進行錯誤分析。實驗結果顯示,本研究所 發展的方法能相容於現行的列印輸出設備,在調整白色資訊點的植入訊息強度後, 可有效抑制因網點擴張所造成的「偽黑」 辨識錯誤的情形。且輸出的小尺寸圖像化 QR 仍有較佳視覺品質,降低錯誤發生率,並藉由深度學習辨識提升辨識能力,有 效增進美化 QR 的成功讀取率。對於彩色影像在指定輸出裝置的條件下,可得到最 佳化的 QR code 植入訊息方法及讀取能力,未來能夠運用於商業加值應用上,並彰 顯實體輸出條件對於圖像化 QR code 整合應用的重要性。
  • Item
    高性能之輕量級卷積神經網路之設計
    (2021) 周世耀; Jou, Shyh-Yaw
    因深度學習強大的分析能力,其時常被用做影像辨識與物件偵測的工具。時至今日,已有許多基於深度學習方法的著名模型被提出,例如:SENet、EfficientNet、Densenet、MobileNet、ResNet、ShuffleNet、GhostNet、Yolo等。深度學習模型的性能主要可從4個層面進行探討,分別是參數量,資料分析能力、處理資料的速度以及模型的泛用能力。一般而言,模型能在上述4個層面都表現優秀是很困難的。在本論文中,我們設計出一各性能皆優秀的深度學習模型―ExquisiteNetV2。我們選用了15個具公信力的影像辨識資料集以及1個物件偵測資料集進行實驗,並以上述提到的著名模型做為比較對象。我們分別使用兩種不同的權重更新法做實驗,根據實驗結果,無論使用何種權重更新法,在超過一半以上的資料集中,ExquisiteNetV2的分類正確率都是第一名。ExquisiteNetV2的參數量遠少於其他模型,但資料分析能力以及運算速度卻優於其他模型,因此,ExquisiteNetV2是一種高性能之輕量級卷積神經網路,可通用於影像分類與物件偵測之應用。
  • Item
    利用卷積神經網路對黃斑部病變的視力進行預測之研究
    (2021) 柯竑亨; Ke, Hong-Heng
    黃斑部皺褶,是一種慢性眼疾,經常發生在年長者身上,患者視網膜的黃斑 部會產生皺摺,進而影響視力。不過,雖然已知此疾病對於視力有非常重大的影 響,但在同樣患有此疾病的患者當中,卻可能擁有不同的視力分布,有些病人的 視力可能僅僅只有 0.1,有些病人卻能夠擁有高達 1.0 的視力。視力的差異難以單 純地依靠肉眼檢視醫學影像來判斷,因此,以深度學習為基礎的電腦視覺將可能 是一個有效之方法。深度學習在這幾年來可以說是蓬勃發展,尤其是在影像辨識方面更是有著相 當優異的表現,本論文將使用 Resnet18、Resnet50、MobilenetV2、ShuffleV2 這四 種神經網路來加以分析,透過卷積神經網路強大的圖形識別能力,來幫助我們找 到在患有黃斑部皺褶的病人的黃斑部之中影響視力最為關鍵的部分。本論文所使 用的資料集是採用台大醫院眼科所提供的 angio retina 影像,它是一種使用了光學 原理成像的眼底血管影像,由於本論文中所使用到的資料集較難以蒐集,所以在 數量上比較稀少,因此除了針對資料集做了資料增強來增加資料集的數量外,另 外還有使用投票法、K 折交叉驗證等方法,來提升模型的表現,在實驗的最後, 本論文採用了 Grad-CAM++這個工具,使訓練結果可以視覺化,以熱像圖的方式 描繪出卷積神經網路所關注的區域,希望此有助於眼科醫師的臨床判斷。
  • Item
    語意分類及其應用於兩輪機器人控制
    (2020) 唐凡; Tang, Fan
    本論文目的在建構一語意分類系統,使指令不單局限在單一詞彙或單一描述,例如指令旋轉之後前進及前進之前旋轉視為同樣意思,使機器人不是單純的判斷關鍵詞的順序而是使機器人能夠自行判斷語意後執行動作,讓所接受的指令更為靈活且多樣。語意分類系統建構是先以文字語句作為訓練資料,將詞彙透過詞嵌入的方式轉為數據。接著,使用神經網路進行分類訓練,主要以卷積類神經網路(Convolutional Neural Network, CNN)、長短期記憶(Long Short-Term Memory, LSTM)這兩種神經網路進行建模,CNN 具有優秀的特徵擷取及處理能力,LSTM 則在序列表現異,透過實驗比較這兩種方法,並選擇結果較好的架構應用於兩輪機器人。
  • Item
    以輕量化卷積神經網路為核心之自動抄錶系統
    (2020) 郭冠毅; Kuo, Kuan-Yi
    隨著物聯網技術的蓬勃發展,政府逐漸淘汰了傳統電錶,開始了智能電錶的時代。然而,更換智能電錶的價格昂貴且面臨通訊不良等問題,導致智能電錶佈建緩慢,我們的想法是開發一種低成本的解決方案,該解決方案使用帶有攝影鏡頭的邊緣設備自動辨識傳統電錶,然後將辨識的值上傳到雲端。過去已有研究通過傳統的圖像分割方法自動讀取錶盤,但是由於傳統的電錶大多設置在遮蔽性高、光線昏暗、灰塵多的環境中,因此對於不清晰的電錶圖像,傳統方法難以獲得良好的辨識結果。在本文中,我們提出了一種基於輕量化卷積神經網路的自動讀錶器並實現在邊緣設備上,為了減輕佈建難度和提高錶盤辨識的準確率,我們所提出的錶盤讀取器具有自動調整傾斜錶盤圖像的能力。實驗結果顯示,相較於其他相關方法,所提出的輕量化卷積神經網路在分割錯誤,誤報和運行時間方面取得了顯著改善。
  • Item
    植基於卷積神經網路之高效能車牌辨識系統
    (2018) 林永鑫; Lin, Yong-Sin
    近年來,車牌辨識系統已成為智能城市車輛管理、被盜車輛調查、交通監控等發展中的關鍵角色,車牌辨識系統有三個階段,包括車牌偵測、字元分割,與字元辨識。儘管車牌辨識系統已成功的應用於環境單純的智能停車場,但使用於監控系統中仍會面臨許多問題,例如多車道辨識,大量的交通號誌與廣告招牌,惡劣天氣與夜間拍攝的模糊傾斜圖像。本論文提出了一種高效的車牌辨識系統,首先偵測車輛,再從車輛中偵測車牌,以減少車牌偵測的誤報。再使用卷積神經網路來改善模糊圖像與近似字元的辨識效果,實驗結果顯示,與傳統的車牌辨識系統相比,該系統擁有較高的精確度。