科技與工程學院

Permanent URI for this communityhttp://rportal.lib.ntnu.edu.tw/handle/20.500.12235/5

沿革

科技與工程學院(原名為科技學院)於87學年度成立,其目標除致力於科技與工程教育師資培育外,亦積極培育與科技產業有關之工程及管理專業人才。學院成立之初在原有之工業教育學系、工業科技教育學系、圖文傳播學系等三系下,自91學年度增設「機電科技研究所」,該所於93學年度起設立學士班並更名為「機電科技學系」。本學院於93學年度亦增設「應用電子科技研究所」,並於96學年度合併工教系電機電子組成立「應用電子科技學系」。此外,「工業科技教育學系」於98學年度更名為「科技應用與人力資源發展學系」朝向培育科技產業之人力資源專才。之後,本院為配合本校轉型之規劃,增加學生於科技與工程產業職場的競爭,本院之「機電科技學系」與「應用電子科技學系」逐漸朝工程技術發展,兩系並於103學年度起分別更名為「機電工程學系」及「電機工程學系」。同年,本學院名稱亦由原「科技學院」更名為「科技與工程學院」。至此,本院發展之重點涵蓋教育(技職教育/科技教育/工程教育)、科技及工程等三大領域,並定位為以技術為本位之應用型學院。

107學年度,為配合本校轉型規劃,「光電科技研究所」由原隸屬於理學院改為隸屬本(科技與工程)學院,另增設2學程,分別為「車輛與能源工程學士學位學程」及「光電工程學士學位學程」。

News

Browse

Search Results

Now showing 1 - 2 of 2
  • Item
    基於TPU/ILs/Li2CO3微結構陣列離子凝膠之可穿戴且高靈敏的壓力感測器研製
    (2025) 張智耀; Zhang, Zhi-Yao
    壓力感測器廣泛應用於智慧穿戴、生理監測、機器人觸覺系統與自動化控制等領域,隨著電子皮膚與人機互動技術的快速發展,具備高靈敏度、穩定性與可撓式的壓力感測器設計成為重要研究方向。本研究以此為出發點,提出一種新型離子電容式壓力感測器,藉由引入電雙層效應(Electrical Double Layer, EDL),以有效提升其整體感測性能。研究採用熱塑性聚氨酯(TPU)為基底,添加碳酸鋰(Li2CO3, LC) 與([EMIM]+[TFSI]−)離子液體(IL),製備TPU/IL/LC離子凝膠複合物介電層。在結構設計方面,運用3D列印製備倒金字塔結構之模具,接著以翻模技術製作出微結構陣列化的介電層,調整其結構尺寸與厚度參數來優化感測性能。實驗結果顯示,所製備之TPU/IL2.5感測器在低壓(0-130 kPa)範圍內具備64.49 kPa⁻¹的靈敏度,於中高壓(130-1400 kPa)區間則僅為4.04 kPa⁻¹。經Li2CO3改質後的TPU/IL2.5/LC0.20感測器在低壓範圍(0-130 kPa)內展現出高達211.57 kPa⁻¹的靈敏度,約為未改質感測器的3.28倍。此外,在130-550 kPa區間亦可達到104.26 kPa⁻¹的靈敏度,在550–1400 kPa區間則維持16.1 kPa⁻¹,顯示其於全壓力範圍內均具有大幅提升之靈敏度。TPU/IL2.5感測器具備最低檢測極限為0.052 Pa,而TPU/IL2.5/LC0.20感測器則進一步降低至0.047 Pa,顯示其微小壓力感測能力有所提升,解析度更高。此外,TPU/IL2.5/LC0.20感測器通過10000次壓縮與5000次彎曲循環測試,以及30天的長期穩定性測試,感測器依然維持穩定表現,展現出優異的可靠性與耐久性。在實際應用方面,TPU/IL2.5/LC0.20感測器可量測脈搏、呼吸、關節彎曲、水滴重量與氣壓微變等多種訊號,亦具備測量溫度與濕度之多功能感測效能。最後,透過CAV444 C-V轉換晶片、藍牙模組之整合與搭配Arduino控制板,即時將電容轉換成電壓訊號後傳輸至手機APP進行顯示,並成功應用於機械手臂之觸控暫停控制,顯示其作為撓性電子皮膚的潛力。整體成果證實本研究感測器具備高靈敏度、高穩定性與高可撓性,可提供未來智慧感測系統中材料設計、元件製作與應用整合潛力的可行解決方案。
  • Item
    基於人類演示學習之機械手臂自動化控制技術
    (2019) 陳境浩; Chen, Jing-Hao
    本論文主要針對具有彈性自動化的機器人發展與應用,提出了一種基於人類演示學習的機械手臂控制系統,其目的在於降低機械手臂自動化所需要的程式編譯複雜程度,以及增加多種操作功能開發的效率。硬體方面使用六軸串列式機械手臂作為實驗平台,搭配使用一台網路攝影機和一台深度攝影機蒐集影像資訊,在示教學習過程中對於人類演示動作及操作物件進行影像處理。軟體方面,經由深度攝影機偵測之人體骨架資訊,本論文透過正逆向運動學將人類演示的動作轉換成控制機械手臂的關節角度,並建立機械手臂運動控制模組。此外,基於YOLO(You only look once)演算法在多物件偵測具有快速及正確的優點,本論文使用此演算法開發操作物件偵測與辨識,在得出目標物件的類別資訊及所在位置之後,機械手臂可依照物件的種類啟動對應的運動控制模組,目標在於重現人類演示學習所示範的任務。最後,本論文經由所建置之虛擬環境和實際自動取放實驗來驗證所發展之機械手臂演示學習技術之可行性。