科技與工程學院
Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/5
沿革
科技與工程學院(原名為科技學院)於87學年度成立,其目標除致力於科技與工程教育師資培育外,亦積極培育與科技產業有關之工程及管理專業人才。學院成立之初在原有之工業教育學系、工業科技教育學系、圖文傳播學系等三系下,自91學年度增設「機電科技研究所」,該所於93學年度起設立學士班並更名為「機電科技學系」。本學院於93學年度亦增設「應用電子科技研究所」,並於96學年度合併工教系電機電子組成立「應用電子科技學系」。此外,「工業科技教育學系」於98學年度更名為「科技應用與人力資源發展學系」朝向培育科技產業之人力資源專才。之後,本院為配合本校轉型之規劃,增加學生於科技與工程產業職場的競爭,本院之「機電科技學系」與「應用電子科技學系」逐漸朝工程技術發展,兩系並於103學年度起分別更名為「機電工程學系」及「電機工程學系」。同年,本學院名稱亦由原「科技學院」更名為「科技與工程學院」。至此,本院發展之重點涵蓋教育(技職教育/科技教育/工程教育)、科技及工程等三大領域,並定位為以技術為本位之應用型學院。
107學年度,為配合本校轉型規劃,「光電科技研究所」由原隸屬於理學院改為隸屬本(科技與工程)學院,另增設2學程,分別為「車輛與能源工程學士學位學程」及「光電工程學士學位學程」。
News
Browse
24 results
Search Results
Item 免標記多模態全像斷層造影技術與應用之研究(2024) 黃崇軒; Huang, Chung-HsuanItem 深度學習輔助全像斷層三維影像分割及資料視覺化(2023) 戚瀚文; Chi, Han-Wen本研究主要探討如何將全像斷層造影系統所擷取的三維細胞影像進行分割,得到不同的細胞胞器三維模型,並且使用深度學習來輔助快速且自動化處理。此外,本研究將會進一步把分割好的影像編寫成電腦全像片,並會詳細說明設計三維電腦全像片演算法的原理以及實現方法,最後,將運用RGB全像顯示技術,以進行光學重建實現資料視覺化的呈現。Item 基於雙重注意力機制之視網膜血管分割深度學習網路(2024) 胡景閎; Hu, Jing-Hung眼底影像之血管分割可以用來協助眼睛病灶的觀察,以提早發現病灶並進行治療,例如黃斑部病變、糖尿病視網膜病變、青光眼等等。由於眼底影像的採集會經過各種不同的程序而導致影像有不同的品質變化,眼底影像血管分割的精確度會影響病灶的判斷,儘管現今已存在許多影像分割方法,但是具有病灶的眼底圖像血管分支變化多端,現存各種分割方法的精確度也依舊無法達到完美,本研究目的為提出改良式眼底影像的血管分割方法,針對各種視網膜圖像,進行精確血管分割,以協助醫師對眼疾病變的診斷,期能對眼疾醫療做出微薄的貢獻。準確的血管分割是一項具有挑戰性的任務,主要是因為眼底影像的對比度低以及血管形態結構的複雜性,傳統卷積會增加乘法的數量,同時執行卷積操作,導致與細長且對比度低的血管相關信息損失。為了解決現有方法在血管提取時低敏感度以及信息損失的問題,本研究提出結合兩種注意力模型EPA以及DLA的並行注意力U-Net以實現準確的血管分割,EPA聚焦於空間以及通道的特徵提取,而DLA則專注於多尺度的局部特徵以及邊緣檢測的特徵,再將並行所得特徵進行深度和淺層特徵融合。本研究在DRIVE數據集上進行實驗,以驗證模型性能,研究結果指出,採用並行運算的U-Net模型分割視網膜血管具有競爭性效能。Item 應用強化式學習策略之分數階比例積分微分控制於X-Y-Y棒狀線性馬達定位平台(2024) 楊祐銓; YANG, YU-CHUANItem 鐵電電容式記憶體特性及研究(2023) 曾涵楨; Tseng, Han-Chen鐵電材料是一種具有雙穩態特性的材料,在電場的作用下能夠產生持久的極化狀態,也能夠在無外部電場的情況下保持所極化的狀態,並即在不同的極化狀態之間切換。這種特性使得鐵電材料成為理想的記憶體元件,可以實現高密度、非揮發性的數據存儲,使其廣泛應用於記憶體中。本研究選擇摻雜不同鋯濃度的氧化鉿鋯(Hf1-xZrxO2, HZO)作為鐵電材料,並對其特性進行了深入研究和應用。鐵電電容式記憶體(Ferroelectric Capacitive Memory, FCM)主要分為累積式FCM和反轉式FCM,同時都有低功耗、快速的寫入速度、長時間保持性和耐久度等優點,並應用於類神經運算。通過TCAD模擬的結果,觀察到反轉型FCM施加負偏壓時,n+摻雜區產生帶對帶穿隧效應。製作不同鐵電層濃度和結構的FCM元件,結果顯示MPB( Morphotropic Phase Boundary) SL(superlattice)-HZO具有較高的開關比,並且在保持度和耐久度量測中表現出更優異的性能,具有對稱性| αp - αd | = 0.03 ~ 0.35的深度學習操作,展現成為類神經突觸元件的能力。Item 線上學習AI模型初探:講師表情與學員情感投入之相關性研究(2023) 劉毓翔; Liu, Yu Hsiang全球冠狀病毒COVID-19疫情大流行,促進教育訓練產業蓬勃發展,在國外知名研究機構的預測中,教育科技產業預算支出將於2025年上看4,000億美元。這樣衝擊實體學習環境的改變將可能不是暫時性的。我們自然更需要有效且快速的工具,去驗證與提醒講師在數位時代的線上學習中,如何持續吸引學習者的注意力,並進一步的促進教學品質有效提升。過去研究顯示,講師的面部情緒表達與預測學員注意力的情感投入習習相關。有鑒於此,本研究以深度學習為工具,粹取講師面部情緒變化,並探討該面部情緒在線上學習的情境中和學員情感投入的相關性。本研究發現在非同步線上學習環境中,學生的情感投入受聲音魅力正向影響,與講師面部恐懼情緒正相關,其他面部情緒對學生情感投入則無顯著影響。本研究還揭示了講師的聲音魅力和面部恐懼情緒對情感投入的影響的同時,還提供了與過去研究觀點不同的發現,有助於推動相關研究領域的發展。並期望做為日後學校、教育機構與企業在執行與設計課程時,提醒講師如何優化進而達到提升訓練效果之論述依據,並幫助講師創造出更有吸引力和有助於學習的教學環境。Item Item 基於深度學習之即時異常操作程序監控系統(2022) 李作庭; Li, Tso-Ting本論文提出一任務監控系統,以確保人員操作程序與標準作業程序一致,避免意外或操作不當的情況發生,包含:影像目標偵測模組、手部動作辨識模組、用於穩定辨識結果之濾波器、以及程序比對演算法。作法係使用 SlowFast 動作辨識演算法,根據影像的取樣頻率,將輸入拆分為slow pathway 以及fast pathway,前者用於取得空間特徵,後者則增強對於時間特徵上之提取,使得模型可以取得更多時空間之資訊,進而實現精細動作的辨識,解決傳統動作辨識演算法只專注在單一取樣頻率進行空間特徵提取,不利於應用在連續動作辨識的限制。為了將該系統有效地實踐在實際應用場景,本論文亦使用YOLOv4偵測目標影像,濾除非目標事件之場景,當目標影像收集足夠的影像數量時,啟用SlowFast進行人員操作目標物之動作辨識,再使用一改良的濾波器用以降低辨識結果不穩定之情形,建立手部與施作工件等目標物件之相依動作行為之動作庫(action base)。隨後,利用一預先建立之標準作業程序動作庫,包含了操作物件以及相對應的動作,利用一比對演算法進行任務行為之檢測,判別人員操作程序流程是否符合規範。為驗證系統之性能,本論文將所提出之任務監控系統以一小型工作坊人機協作進行即時判斷,監督操作員的操作程序是否符合正確規範。Item 基於非監督式生成對抗網路及對比學習之水下影像品質回復(2023) 宋奕泓; Sung, Yi-Hung近年來水下環境之相關應用的重要性與日俱增,比如:水下資源探勘及水下環境監控。這些應用往往需要由水下無人載具來擷取水下數位影像資料以供後續之資料分析及其相關應用 (例如:水下物件偵測及水下影像分類等相關應用)。然而水下影像品質受到許多環境因素影響而造成影像退化,包括光線折射、反射等等,如此可能使得基於水下影像之相關應用無法得到良好的效果。近年來,隨著深度學習技術蓬勃發展,研究者提出許多基於深度學習的模型來改善水下影像的品質。目前現有方法中,以具備成對影像資料之監督式深度學習模型為主。成對影像學習雖然能以較輕量模型得到好的影像品質回復效果,但礙於現實難以取得成對的原始水下影像及其還原之陸上影像,因此模型訓練上受到許多限制。為了解決這個限制,許多研究以人工合成之影像來建立成對之訓練影像資料集。然而,人工合成之訓練影像資料集未必能反映真實的水下影像特性。為了解決此問題,最近已有研究提出使用生成對抗網路及非成對影像資料來進行深度學習網路訓練。本論文提出一基於非成對影像資料及生成對抗網路之深度學習模型,來處理水下影像回復的問題。本論文提出基於非成對訓練影像資料集及利用生成對抗網路架構訓練一影像領域轉換生成器將輸入之水下影像轉換為對應之陸上影像 (回復之水下影像),其中我們利用對比學習及多樣損失函數來進行網路訓練。實驗結果已證實我們的方法可得到較佳的回復影像品質且優於 (或近似) 現有基於成對/非成對訓練資料之基於深度學習之水下影像回復網路。Item 基於改良式時序動作提名生成網路之即時動作偵測(2022) 陳怡君; Chen, Yi-Chun大多數的動作辨識(Action Recognition)方法在應用於連續動作辨識時,會有不穩定的預測,這是因為該些方法大都利用只有單一動作的短視頻(Short Video Clip)去訓練,如果輸入是連續讀入的即時影像時,由於無法取樣到動作開始與結束的幀,造成輸入模型的影像序列與訓練資訊大相逕庭,造成辨識的錯誤。為解決上述問題,本論文提出一即時動作偵測(Online Action Detection)方法,在串流影像當中找出動作的開始與結束,作法是先以Inflated 3D ConvNet (I3D)提取出RGB及Optical Flow影像的特徵,再利用Boundary Sensitive Network (BSN)中的Temporal Evaluation Module (TEM)模組,來找出動作開始、動作結束的機率。此外,本文改良了傳統BSN,使其從離線運行轉變成可以即時運行來找出開始與結束的機率,以得到目標動作較有可能發生的區間。在動作開始後,本文應用動態取樣方法來獲得有效樣本並送入I3D以進行動作識別。實驗結果顯示,所提出的方法可以更好地處理各種連續時間的目標動作影片,提高串流影片中動作辨識的準確度。
- «
- 1 (current)
- 2
- 3
- »