收藏 分享(赏)

以自我学习神经网路混合邻近搜索演算法作atsp问题.doc

上传人:cjc2202537 文档编号:1516038 上传时间:2018-07-24 格式:DOC 页数:12 大小:183KB
下载 相关 举报
以自我学习神经网路混合邻近搜索演算法作atsp问题.doc_第1页
第1页 / 共12页
以自我学习神经网路混合邻近搜索演算法作atsp问题.doc_第2页
第2页 / 共12页
以自我学习神经网路混合邻近搜索演算法作atsp问题.doc_第3页
第3页 / 共12页
以自我学习神经网路混合邻近搜索演算法作atsp问题.doc_第4页
第4页 / 共12页
以自我学习神经网路混合邻近搜索演算法作atsp问题.doc_第5页
第5页 / 共12页
点击查看更多>>
资源描述

1、以自我學習神經網路混合鄰近搜索演算法作 ATSP 問題關鍵詞:非對稱旅行推銷員問題(ATSP) 、鄰近搜索法、自我學習神經網路摘 要旅行推銷員問題(TSP)目前已被證實為 NP-Complete 的問題,由於定義簡單、複雜度高,多數新演算法莫不以其為測試標準,目前此類問題已有高效率演算工具能獲得很好的解答。TSP 問題雖為古典組合最佳化問題,惟傳統研究多僅探討對稱型 TSP 問題,假若將對稱型 TSP 問題進一步推展至非對稱 TSP問題(ATSP ) ,由於問題解答有效組合數較對稱型 TSP 問題多出一倍,可能會因為問題解答搜索空間擴大,導致求解效率變差的現象出現。在各種最佳化演算法中,類神經

2、網路屬於較新穎的演算法,1997 年楊秉蒼提出混合型自我學習神經網路解 TSP 問題時,在 16 個測試範例有 14 個獲得最佳解,不過並未對ATSP 問題作進一步的探討;為此本文嘗試以混合型自我學習神經網路解 ATSP問題。為使解答有比較依據,範例方面以國際題庫(TSPLIB)有關 ATSP 的範例為測試對象,並以文獻最佳解及鄰近搜索法作解答品質的比較。經測試得到10 個範例中,若以鄰近搜索法與文獻最佳解作比較,則鄰近搜索法相對誤差高出 0.8% 43.6%之間;若以混合型自我學習神經網路與文獻最佳解作比較,則混合型自我學習神經網路之相對誤差約高出 0.0% 3.3%之間。一、前言旅行推銷員

3、問題(Traveling salesman problem, TSP)最早為美國軍方建立全國通訊路線所延伸出來的問題,TSP 問題目前已被證實為 NP-Complete 的問題(問題求解時間,隨問題尺度增大,呈非多項式遞增的現象) 【Garey 1979】 。TSP 問題定義:一旅行推銷員到 N 個城市做生意,試找出一條從某城市出發並連貫所有城市,最後回到原城市,且城市至每城市間,只能去一次之最短旅行拜訪路徑,稱之 【楊秉蒼 2000】 。由於 TSP 問題對於城市間的距離,無論由 A 城市至 B 城市或 B 城市至 A 城市,兩者路線距離均假設為相同,因此面對城市數 N 的 TSP 問題,其

4、有效合法解答有(N-1)!/2 組合法解答,以 N=10 的 TSP 問題而言,解答數有 181,440 種組合,若 N=50 其有效合法解答數有 50!之多;由此得到吃 TSP 問題具有組合爆炸的特質,因此問題求解不能以窮盡搜索的方式,逐一求解。TSP 問題對於兩城市間的距離是假設城市間來回均相等,惟實際應用並非所有城市來回的距離均為相等,所以城市間的距離可能為非對稱,此時問題型態稱為非對稱 TSP 問題,簡稱 ATSP問題。ATSP 問題求解的難度遠高於 TSP 問題,原因在於 ATSP 問題假設城市間來回距離為非等距,所以同樣尺度的問題,ATSP 問題之有效合法解答數目,會較 TSP 問

5、題多出一倍。以往研究者對於 TSP 問題求解方法大致分為兩類,一類為求問題最佳解的方法,另一類為啟發式的解法,以啟發式解法解 TSP 問題的方法有類神經網路【楊秉蒼 2000,李欣育 1990】 、遺傳演算法【山村雅幸等 1992,林建良 1993,楊祥泰 1994】 、限制規劃 【葉怡成 1996】 、門檻接受法等【韓復華等 1996】 。其中,以類神經網路解 TSP 問題仍屬較新嘗試領域。以類神經網路解 TSP 問題最早可追溯自 1985 年 Hopfield 和 Tank 共同提出的Hopfield-Tank 神經網路【Hopfield 1985】 ,此法開啟類神經網路於最適化應用的先例

6、,雖然 Hopfield-Tank 神經網路在時間效益有較佳的表現,但仍受限於最陡坡降(Steepest descent)程序,使得網路常收斂於臨近起始局部極小值,造成網路不穩定性;另外,參數缺乏系統化設定亦是其缺點之一。其後,仍有許多學者提出不同的改進方法,在網路演算法方面有 Van Den Bout 和 Miller 結合模擬退火觀念,提出退火神經網路(Annealed neural network) 【Van den Bout 1988】 ,Bernard 以自組織映射網路(Self-organizing neural ntwork)解 TSP 的問題【Bernard 1988】 ;在決

7、策變數表達上,Brandt 等【Brandt 1988】提出三下標的表示法;在能量函數方面,Szu【Szu 1988】提出更強約束力的能量運動方程,在改進的過程雖有學者提出許多方法,但解答品質及求解效率仍無法得到滿意的解答。目前 TSP 問題已應用於各工商業領域,如貨物配送路線規劃、交通路線指派、車輛配送路線安排、進度排程等應用。二、類神經網路模式應用類神經網路(Artificial neural network)是透過大量簡單神經元件,組合而成之複雜可計算的網路,用以模擬人腦思維過程的一種計算工具。目前類神經網路應用上,大致可分為四類包含監督式網路(Supervised learning n

8、etwork) 、非監督式網路(Unsupervised learning network) 、聯想式學習網路(Associate learning network) 、最適化網路(Optimization application network)四種,其中最適化網路常用以求解組合最適化問題,但求解品質及求解效率仍有改善的空間【葉怡成 1995】 。以 Hopfield-Tank 神經網路解 TSP 問題時,神經元以二維矩陣型態表示,以列表示城市編號、行表示旅行序號,惟利用此法求得的效果並不甚理想。因此有學者利用類似於指派的方式,以列表示城市旅行出發的編號、行表示城市旅行終點的編號,由於此法只

9、單純考慮兩城市間的關連,所以加強鄰近城市的鍵結強度,但仍會產生多閉合迴路之非法解現象,須經過特定轉換過程,將多閉合迴路合併為一個閉合迴路(合法解) 。為有效保留此法高鍵結能力及避免多閉合迴路帶來的困擾,在 1997 年楊秉蒼以其提出的自我學習神經網路(Self-learning neural network, SLNN) ,結合鄰近搜索法,基於上述問題表達結構下,進一步求解 TSP 問題,且獲得不錯的成果,在 16 個測試範例有 14 個獲得問題最佳解,此混合型自我學習神經網路,應用於 TSP 問題,具有下列幾項優點【楊秉蒼 1997】:1. 避免多閉合迴路發生;2. 確保解答為合法解;3.

10、提高解答品質;4. 縮短求解時間。下述 2.1 及 2.2 節介紹自我學習神經網路及鄰近搜索法,2.3 節說明自我學習神經網路與鄰近搜索法之混合模式,2.4 節說明網路演算流程。2.1 自我學習神經網路 類神經網路於 TSP 問題的應用,最早雖由 Hopfield-Tank 神經網路首先解出,然日後經 Wilson 證明發現網路收斂率約僅 8%,且問題尺度增加,效果越差;由此瞭解,此網路仍具不穩定性,因此解答品質與求解效率(迭代次數及收斂率)仍有改善的空間。一般處理最佳限制滿足問題的演算法,常會面臨目標與限制條件衝突的現象,因而降低演算求解效率。在最適化類神經網路領域,同樣存在此項困擾,為此楊

11、秉蒼於 1997 年提出,兩階段式最適化網路模型,稱為自我學習神經網路,其將網路的運作明顯區分出網路學習及網路回想兩個部分(傳統最適化類神經網路,並無明顯的網路學習過程) 。網路學習階段以目標為主,限制條件為輔,此過程網路並不收斂,但能產生最適能量組態空間;網路回想階段,再以限制條件為主,目標為輔,使網路在兼顧解答品質下收斂,此過程能有效化解目標與限制條件衝突的現象。上述學習與回想階段,可透過不同特徵能量運動方程及參數變化加以控制。自我學習神經網路之神經元狀態變數,一般可以二維或多維的矩陣表示,矩陣中任一決策變數代表一個神經元,每個神經元各有一個神經元狀態變數及神經元能量值,神經元狀態變數與能

12、量值之間以 Step function 非線性轉換函數進行轉換,如圖一所示,當神經元能量大於 0,神經元則處於亢奮狀態;反之,為抑制狀態。目前自我學習神經網路依用途不同發展出二元型、實數型及混合型【楊秉蒼 1997】三種,由於 ATSP問題之數學模型決策變數屬於二元值(0 或 1) ,適合二元型自我學習神經網路求解。然單純二元型自我學習神經網路解 ATSP 問題,會產生多閉合迴路的問題,使得模式應用受限限制。V=1V=0(-) U=0 (+) 圖一、Step function 轉換函數(階梯函數)2.2 鄰近搜索演算法鄰近搜索演算法又稱貪心搜索法,此法乃是基於每次出發都向距離最短的城市前進,直

13、至每一個城市均被走過一次為止,可得一個解答,從不同起始城市出發,會有不同的解答,對於 N 個城市的問題,問題具有 N 個解答。上述乃基於城市距離矩陣為對稱矩陣而言,不過 ATSP 問題因城市間構成距離矩陣為非對稱型態矩陣,因此相對於對稱型 TSP 問題,以鄰近搜索演算法獲得的解答數有 2N 個。由於鄰近搜索演算的演算程序的邏輯相當簡單,惟其貪心選取的過程,使得去過的城市越來越多時,相對可供選取的城市越來越少,有時不得不選取距離較長的城市路線,因此解答與最佳解的差異有時存在較大的變異,但仍具求解時間短的特性。2.3 自我學習神經網路與鄰近搜索演算法之混合模式為有效改善自我學習神經網路及鄰近搜索演

14、算法解 ATSP 問題的缺點,本文透過自我學習神經網路建立最佳神經元能量矩陣,再利用鄰近搜索演算法在滿足問題限制條件下,逐步搜索網路最大神經元能量值(主要是能量越大,神經元較具優勢競爭力) ,由於神經元能量值為非對稱能量矩陣,故解答會有 2N個,而此流程可有效避開多閉合迴路及網路回想時間過長的缺點,所以在上述二種方法結合下,產生新混合型自我學習神經網路。以下依序說明混合模式之問題特徵能量運動方程建構及演算法流程。2.3.1 問題特徵能量運動方程建構應用自我學習神經網路解 ATSP 問題,特徵能量運動方程須滿足兩項要求:1. 目標方面:尋求旅行推銷員城市拜訪最短路徑。2. 限制條件方面:要求旅行

15、推銷員拜訪全部城市,且每個城市只拜訪一次,最後回到起始城市。為滿足上述要求可建立以下三項問題特徵能量運動方程,分別為 E1(目標函數) 、E2 (限制條件) 、E3(限制條件)特徵能量運動方程。特徵能量運動方程 E1:E1ij =(1-D*ij) , if ij E1ij =0 , if i=j (1)特徵能量運動方程 E2:E2ij =-( -1)+( -1) , if ijnxi1Xnxj1E2ij =0 , if i=j (2)特徵能量運動方程 E3:E3ij =(Xij Xji) , if ij E3ij =0 , if i=j (3)將上式 E1、E2、E3 相加得總能量運動方程式

16、E:總特徵能量運動方程 E: Eij = (1-D*ij)+ ( -1)+( -1) +(Xij Xji) , if ij nxi1Xnxj1Eij =0 , if i=j (4)符號意義:Xij:神經元狀態變數。X ij=1 表示從第 i 個城市旅行至第 j 個城市;反之,Xij=0。D*ij:距離尺度化(採指數尺度)之正規化距離矩陣。D* ijD ij / Dij 。jiMax,:尺度化參數( 0)。:距離參數( 0)。:行列限制參數( 0)。:對角干擾參數。 0 為提昇神經元活性。由於總能量運動方程直接對應問題,可直接代入網路進行神經元能量計算。特徵能量運動方程內容說明如下:1. 特徵能

17、量運動方程 E1,表示將距離矩陣轉換為距離相關之特徵能量運動方程,由於 D* 為 0.01.0 之間的實數,故 E1 為增益能量。2. 特徵能量運動方程 E2,表示限制狀態變數,每行、每列只能存在一個亢奮神經元,此項限制使神經元產生順序規則化,其存在懲罰及增益能量。3. 特徵能量運動方程 E3,表示 Xij=1、X ji=1 時,則進行對角神經元能量干擾,藉以抑制或提昇對角神經元能量,故 E3 為懲罰或增益能量。4. 為配合神經元狀態變數的表達,將鄰近搜索演算法轉換為搜索能量最大值,非能量最小值。5. 參數主要功能在干擾神經元的活性;經測試具有使網路跳出局部極小值領域。6. 上述問題特徵能量運

18、動方程,同 TSP 問題的問題特徵能量運動方程。惟差異處在於 D*為經距離尺度化後,再作正規化之城市距離矩陣。2.3.2 自我學習神經網路混合鄰近搜索演算法之演算流程step(1.0):讀入基本資料階段step(1.1):設神經元狀態變數矩陣 V、神經元能量矩陣 Ustep(1.2):讀入城市距離矩陣 Dstep(2.0):自我學習神經網路階段step(2.1):設定網路參數 T(迭代次數) 、 、 、 、 step(2.2):將城市距離尺度化後,再進行距離正規化處理 D*step(2.3):執行網路能量運動方程設定 V、 U 為零矩陣t=0 do until t=T t=t+1for i=1

19、 to n for j=1 to nVij(t)=Vij(t-1)+Eij (神經元能量值為累加迭代)if Vij(t)0 then Vij(t)=1 else Vij(t)=0 next jnext iloopstep(3.0):鄰近搜索階段;step(3.1):執行鄰近搜索演算法。以各城市為出發點,搜索能量最大值得到 2n個解答;step(3.2):輸出解答最佳解。演算流程說明:1. step(2.2)主要功能在將城市距離尺度化處理,此過程主要在加大或縮小城市距離差距,此法有助改善解答品質,為 ATSP 問題與 TSP 問題演算流程最大差異之處。其次,再依尺度化的城市距離作正規化處理,轉換

20、為 0.01.0之間的數值資料,如此將可使網路參數設定更形簡易。2. step(2.3)為自我學習神經網路運作階段,網路神經元狀態變數改變採非同步循序處理,如此可加速網路趨於穩定。3. step(3.0)為鄰近搜索演算運作程序,此程序最大的特點在於滿足問題限制條件下,依序搜索神經元能量大值,不過 ATSP 問題與 TSP 問題鄰近搜索的解答均為 2N 個。BDE三、演算流程範例說明以下為 5 個城市的範例,如圖二所示,並說明網路演算流程。圖二、城市相關位置示意圖(5 個城市)步驟一:讀入距離矩陣城市距離矩陣如表一所示,城市間的路線為相互全連通。表一、城市距離矩陣 DA B C D EA 0 3

21、 5 7 1B 9 0 5 1 9C 9 1 0 3 7D 1 5 3 0 3E 7 7 1 9 0註:陰影部份距離為 0。步驟二:設定網路參數T = 5 次 、 = 1.0 、 = 10.0 、 = 0.3 、 = -0.2 步驟三:距離矩陣尺度化,再正規化處理由於 = 1.0,所以尺度化的結果與表一相同。接下來,正規化轉換城市距離。首先,求距離矩陣中最大的距離為 9,將距離矩陣中所有的距離除以 9,得值域為01 之間的距離轉換矩陣,如表二所示。AAC表二、城市轉換距離矩陣 D*A B C D EA 0 0.33 0.56 0.78 0.11B 1.00 0 0.56 0.11 1.00C

22、1.00 0.11 0 0.33 0.78D 0.11 0.56 0.33 0 0.33E 0.78 0.78 0.11 1.00 0註:陰影部份為 0.00。步驟四:執行網路能量運動方程式首先,設狀態變數矩陣 V 及神經元能量矩陣 U 為零矩陣。接下來,計算神經元的能量值 Eij,網路為循序執行,執行步驟為先做 i 再作 j,i=A、j=A,因 i=j,因此不執行該神經元能量計算,V A,A=0,EA,A=0;接下來,i=A、j=B ,代入問題總特徵能量運動方程式:E A,B = 7.26 0,立即改變神經元狀態變數VA,B=1。依序執行直至執行完所有的神經元,此時神經元狀態變數如表三,神經

23、元能量如表四所示。當迭代次數大於 T(5 次)時,結束網路學習。最終神經元狀態變數如表五、神經元能量如表六。表三、神經元狀態變數矩陣 X (t=1)A B C D EA 0 7.26 4.74 2.22 8.59B 0.60 0 4.44 8.59 -0.60C 0.30 8.89 0 6.07 1.62D 8.89 4.14 6.07 0 5.77E 1.92 1.62 7.99 -1.20 0註:陰影部份不執行神經元計算。表四、神經元能量矩陣 U (t=1)A B C D EA 0 1 1 1 1B 1 0 1 1 0C 1 1 0 1 1D 1 1 1 0 1E 1 1 1 0 0註:陰

24、影部份不執行神經元計算。表五、神經元狀態變數矩陣 X (t=5)A B C D EA 0 1 1 1 1B 0 0 1 1 0C 0 1 0 1 1D 1 1 1 0 1E 1 1 1 0 0註:陰影部份不執行神經元計算。 表六、神經元能量矩陣 U (t=5)A B C D EA 0 26.53 15.12 4.31 37.34B -2.90 0 16.62 39.74 -4.20C -4.10 37.6 0 27.13 4.91D 38.84 13.92 24.73 0 26.43E 6.41 4.51 36.74 -6.00 0註:陰影部份不執行神經元計算。步驟五:執行鄰近搜索演算法。當自

25、我學習網路學習完成後,導入鄰近搜索演算法,搜索神經元能量最大值。首先以 A 列為起始出發列,尋找 A 列中能量最大的行,結果為 E 行 (能量值 37.34) ,故下一城市為 E;再從 E 列出發,尋找能量最大的行,結果為 C 行 (能量值 36.74) ,故下一城市為 C 站;再從 C 列出發,尋找能量最大的行,結果為 B 行 (能量值 37.60) ,故下一城市為 B 站;再從 B 列出發,尋找能量最大的行結果為 D 行 (能量值 36.74) ,故下一城市為 D 站;在完成所有城市的拜訪,最後再由 D 城市回到 A 城市。依此類推,得路徑順序為 A-E-C-B-D-A,並將位置映射至距離

26、矩陣,形成一個封閉迴圈,解答為 5。如此直到以最後一列為起始出發列求解為止,共得 N 個解答。再改從以行為起始出發行,尋找行中能量最大的列,同上述步驟求解,直到以最後一行為起始出發行求解為止,共得 N 個解答。故總共得 2N 個解答。步驟六: 解答整理分析。統計 10 個鄰近搜索得到的解答,得到解答平均值為 5.0,解答最大值為 5.0,解答最小值為 5.0,並以解答最小值 5 為最終解答,路網路徑為 A-E-C-B-D-A。以列為出發點:A-E-C-B-D-A(1+1+1+1+1 ):5;B-D-A-E-C-B(1+1+1+1+1):5;C-B-D-A-E-C(1+1+1+1+1):5;D-

27、A-E-C-B-D(1+1+1+1+1 ):5;E-C-B-D-A-E(1+1+1+1+1):5;以行為出發點:A-D-B-C-E-A(1+1+1+1+1 ):5;B-C-E-A-D-B(1+1+1+1+1):5;C-E-A-D-B-C(1+1+1+1+1):5;D-B-C-E-A-D(1+1+1+1+1 ):5;E-A-D-B-C-E(1+1+1+1+1):5。四、範例測試結果比較與參數設定4.1 範例測試結果比較為驗證自我學習神經網路混合鄰近搜索演算法之網路演算能力,本文以網際網路 TSPLIB 國際題庫提供的 ATSP 範例進行測試,測試範例數總計 10 題,問題尺度為 1765 個城市

28、不等。為使解答有所比較的依據,本文以文獻最佳解及鄰近搜索演算法作為比較對象,執行時間以 Pentium III 350 MHz 處理器為測試標準。經比較得到解答仍以國際題庫提供的解答最佳,自我學習神經網路混合鄰近搜索演算法的解答次之,鄰近搜索演算法的解答最差。表七為範例測試結果比較,由該表得到鄰近搜索法與題庫最佳解的相對誤差約為 0.8% 43.6%,此結果與先前預測鄰近搜索法解答品質有較大的變異性,結果是相同的;不過若與 TSP 問題的測試結果比較的話,其解答之相對誤差則有明顯偏高的趨勢,此現象可能與問題有效合法解答空間擴大所致,這也驗證 ATSP 問題相較於 TSP 問題求解困難之處;另外

29、,由該表得到本法與題庫最佳解的相對誤差約為 0%3.3%,其中,相對誤差低於 1%的範例數約佔半數,這顯示本法獲得的結果表現仍相當優異,不過與 TSP 問題的測試結果比較發現,以本法解ATSP 問題時,其與題庫最佳解仍有一小段差距,但就整體而言,本法仍具高效率的求解能力。表七、範例測試結果比較鄰近搜索法 本法範例編號城市數題 庫最佳解平均值 最大值 最小值 平均值 最大值 最小值相對誤差(1)相對誤差(2)一 17 39 83.6 99 56 44.9 79 39 43.6% 0%二 34 1286 1658.6 1818 1491 1558.8 1789 1286 15.9% 0%三 36

30、1473 1908.8 2124 1667 1740.5 1954 1475 13.2% 0.1%四 39 1530 1973.5 2230 1759 1803.3 2241 1551 15.0% 1.4%五 45 1613 2018.4 2360 1825 2022.3 2242 1624 13.1% 0.7%六 48 1776 2410.6 2721 2125 2243.9 2535 1800 19.7% 1.4%七 56 1608 2147.7 2381 1931 2005.4 2273 1661 20.1% 3.3%八 65 1839 2460.3 2855 2202 2260.5 2

31、588 1875 19.7% 2.0%九 44 5620 5728.3 5959 5665 5679.6 5761 5621 0.8% 0.0%十 48 14422 16916.219244 15368 16411.517987 14735 6.6% 2.2%註:相對誤差(1):(鄰近搜索法最小值題庫最佳解)/題庫最佳解。相對誤差(2):(本法最小值題庫最佳解)/題庫最佳解。4.2 參數設定及其影響由個案模擬測試結果,歸納下列幾點參數設定建議:1. 參數 為控制城市距離尺度化參數,由測試結果得到,有尺度化的解答較無尺度化的結果好,建議尺度化的值小於 1.0 會有較佳的結果。2. 參數為自我學習

32、神經網路的迭代次數,迭代次數過多會影響網路演算時間,過少網路無法充分學習而影響解答品質,由測試結果得到網路迭代次數約為 1015 次,會有較佳的解答品質。3. 參數 為自我學習神經網路距離參數,由測試結果得到參數值設為 1015會有較佳的解答品質。4. 參數 為自我學習神經網路限制條件參數,由測試結果得到參數值設為0.52.5 會有較佳的解答品質。5. 參數 為自我學習神經網路干擾參數,由範例測試結果得到參數值設為-1.01.0 會有較佳的解答品質。五 、 結 論 與 建 議1. 由於自我學習神經網路混合鄰近搜索演算法應用於TSP問題,獲得較佳的解答品質,為此本文將此法進一步推廣至更高難度的A

33、TSP問題,由測試結果得到,本法同樣獲得優異的解答品質,亦驗證本法的優異性質。2. 就解答品質而言,由本文範例測試結果得到,本法的解答品質明顯優於鄰近搜索演算法,改善程度相當大。3. 在演算速率方面,鄰近搜索演算法的測試時間最短,對所有範例測試,大多能於1秒內計算出測試結果;而本法運算時間效益方面,雖不及鄰近搜索法,不過其繼承部分鄰近搜索特性,所以本法運算僅需較短的時間,即可完成測試。4. 在測試時間方面,本法以65個城市,迭代10次,所需花費時間約為10秒(Pentium III 350 Mhz),這相較於它法顯然快速許多。5. 本文解ATSP問題時,嘗試以既有的自我學習神經網路混合鄰近搜索

34、演算法解此問題,不過由測試結果發現,效果略不理想,因此嘗試加入距離尺度化的步驟,經測試得到解答獲得改善,原因可能為城市距離離散程度的影響,此為本研究另一項突破。6. 就問題應用層面而言,ATSP的問題較TSP 問題更具應用上的意義,例如進行FLOW SHOP排程問題模擬時,可將FLOW SHOP排程問題轉換為ATSP問題處理,由此可瞭解ATSP問題的重要性。參考文獻1. Garey, M. R. and Johnson, D. S., “Computers and Intractability: A Guide to the Theory of NP-completeness”, Freema

35、n, San Francisco 1979.2. 楊秉蒼、呂淑鈴, 以自我學習神經網路混合鄰近搜索演算法解 TSP 問題 ,運輸計畫季刊,第二十九卷,第二期,2000,第 281294 頁。3. 楊秉蒼, 類神經網路在營建管理科學上的應用 ,碩士論文,中華大學土木工程研究所,新竹,1997。4. 李育欣, 完全性路網 TSP 問題啟發式解法之研究 -兼論類神經網路解法之應用 ,國立交通大學交通運輸研究所,碩士論文,新竹,1990。5. 山村雅幸、小野貴久、小林重信, “Character-Preserving Genetic Algorithms for Traveling Salesman

36、Problem”, Technical Papers, No. V, 1992, pp. 1049-1059.6. 林建良, 用遺傳演算法解推銷員問題與排程問題 ,國立台灣大學電機工程學研究所碩士論文,台北,1993。7. 楊祥泰, 應用誤差貪心基因演算法求解旅行推銷員問題 ,國立台灣大學資訊工程研究所碩士論文,碩士論文,台北,1994。8. 葉怡成,限制邏輯程式建構工具 CHIP 4.X 版教材,中綱科技有限公司,台北,1996。9. 韓復華、楊智凱, 以門檻接受法改善路網成本之研究 ,運輸計畫季刊,第二十五卷,第二期,1996,第 163-188 頁。10. Hopfield, J. an

37、d Tank, D. W., “Neural Computations of Decisions in Optimization Problem,” Biological Cybernetics,“ Vol. 51,1985, pp.141-152.11. Van den Bout, D. E. and Miller, T. K., “A Traveling Selesman Objective Function Taht Works, “ ICNN, Vol. 88, No.II, 1988, pp.299-303.12. Bernard Angeniol, Gael De La Croix

38、 Vaubios and Jean-Yves Le Texier”, Self-organization feature maps and the traveling salesman problem”, Neural Networks Vol ,1988, pp289-293.13. Brandt R al. et. “Alternative Networks for Solving the Traveling Salesman Problem and List Matching Problem”, Proceedings of the IEEE International Conferen

39、ce Neural Network, 1988, pp.333- 340.14. Szu H., “Fast TSP Algorithm Based on Binary Neuron Output and Analog Input Using the Zero Diagnoal Interconnect Matrix and Nessary and Sufficient Constraints of the Permutation Matrix”, Proceedings of the IEEE International Conference Neural Network, 1988, pp.259266.15. 葉怡成,類神經網路模式應用與實作,儒林圖書有限公司,台北,1995。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 企业管理 > 经营企划

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报