14
( 25 ) 結合 OLS 與 SGA 建構輻狀基底類 神經網路於洪㈬預測之研究 Building Radial Basic Function Neural Network by Integrating OLS and SGA for Flood Forecasting 張 麗 秋 LI-CHIU CHANG 淡江大㈻㈬㈾源及環境工程㈻系 助理教授 林 永 堂 YUNG-TANG LIN 台灣大㈻生物環境系統工程㈻系 碩 士 張 斐 章 FI-JOHN CHANG 台灣大㈻生物環境系統工程㈻系 教 授 本 研究 以輻狀 基底函 數類 神經網 路來架 構集 ㈬區降 雨-逕 流模 式。建構 輻狀 基底函 數類神經網路可分為兩階段,前階段以垂直最小平方法(OLS)決定隱藏層㆗輻狀基底函 數 之個 數及其 ㆗心位 置;後階 段則 以序率 坡降法 (SGA)推 求網路 隱藏 層與輸 出層之 參數。 OLS 演算法能㈲系統㆞從輸入向量㆗挑選出影響推估結果最大的輸入㈾料當作隱藏層的 神經元;而 SGA則利用最陡坡降法的概念,修正網路之參數。我們首先以合成的傅立葉 函數序列來測試 OLS 搭配 SGA 之輻狀基底函數類神經網路(RBFNN)的技術性,結果顯示 其 具㈲ 良好的 推估能 力與 準確性 ;其 次,以蘭陽 溪降 雨-逕 流㈾料 為例 ,並 與倒傳 遞類 神經網路(BPNN)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預 測效能更佳,且能夠精確推估㆘㆒時刻與㆘㆓時刻的洪㈬事件。 關鍵詞:降雨-逕流模式,輻狀基底函數類神經網路,垂直最小平方法,序率坡降法,倒傳遞 類神經網路。 ABSTRACT In this study, the radial basis function neural network (RBFNN) is used to model the rainfall- runoff process. The training process of RBFNN includes two phases. First, the Orthogonal Least Squares (OLS) is used to determine the number and the center of radial basis function in the hidden layer. Then, the parameters in radial basis functions and the connected weights between the hidden layer and output layer are determined by the Stochastic Gradient Approach (SGA). The OLS algorithm could systematically identify effective input data and set them as the nodes of hidden layer, while the SGA algorithm could search optimal parameters of the network. The proposed RBFNN is first verified by using a theoretical Fourier function. The results show that the model has great ability and high accuracy in simulation of the theoretical case. To further investigate the model s applicability, Lanyang River is used as case study. The Back propagation neural network (BPNN) is also performed for the purpose of comparison. The results demonstrate that the proposed RBFNN has much better performance than BPNN. RBFNN not only provides an efficient way to model the rainfall-runoff process, but also give precise one-step and two-step ahead flood forecasts. Keywords: Rainfall-runoff model, Radial basis function neural network, Orthogonal least squares, Stochastic gradient approach, Back propagation neural network. 臺灣㈬利 第 53 卷 第 4 民國 94 12 ㈪出版 Journal of Taiwan Water Conservancy Vol. 53, No. 4, December 2005 ﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏ ﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏

結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

  • Upload
    others

  • View
    27

  • Download
    0

Embed Size (px)

Citation preview

Page 1: 結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

( 25 )

結合 OLS 與 SGA 建構輻狀基底類 神經網路於洪㈬預測之研究

Building Radial Basic Function Neural Network by Integrating OLS and SGA for Flood Forecasting

張 麗 秋

LI-CHIU CHANG

淡江大㈻㈬㈾源及環境工程㈻系

助理教授

林 永 堂

YUNG-TANG LIN

台灣大㈻生物環境系統工程㈻系

碩 士

張 斐 章

FI-JOHN CHANG

台灣大㈻生物環境系統工程㈻系

教 授

摘 要

本研究以輻狀基底函數類神經網路來架構集㈬區降雨-逕流模式。建構輻狀基底函數類神經網路可分為兩階段,前階段以垂直最小平方法(OLS)決定隱藏層㆗輻狀基底函數之個數及其㆗心位置;後階段則以序率坡降法(SGA)推求網路隱藏層與輸出層之參數。 OLS 演算法能㈲系統㆞從輸入向量㆗挑選出影響推估結果最大的輸入㈾料當作隱藏層的神經元;而 SGA則利用最陡坡降法的概念,修正網路之參數。我們首先以合成的傅立葉函數序列來測試 OLS 搭配 SGA 之輻狀基底函數類神經網路(RBFNN)的技術性,結果顯示其具㈲良好的推估能力與準確性;其次,以蘭陽溪降雨-逕流㈾料為例,並與倒傳遞類神經網路(BPNN)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預測效能更佳,且能夠精確推估㆘㆒時刻與㆘㆓時刻的洪㈬事件。

關鍵詞:降雨-逕流模式,輻狀基底函數類神經網路,垂直最小平方法,序率坡降法,倒傳遞類神經網路。

ABSTRACT

In this study, the radial basis function neural network (RBFNN) is used to model the rainfall- runoff process. The training process of RBFNN includes two phases. First, the Orthogonal Least Squares (OLS) is used to determine the number and the center of radial basis function in the hidden layer. Then, the parameters in radial basis functions and the connected weights between the hidden layer and output layer are determined by the Stochastic Gradient Approach (SGA). The OLS algorithm could systematically identify effective input data and set them as the nodes of hidden layer, while the SGA algorithm could search optimal parameters of the network. The proposed RBFNN is first verified by using a theoretical Fourier function. The results show that the model has great ability and high accuracy in simulation of the theoretical case. To further investigate the model’s applicability, Lanyang River is used as case study. The Back propagation neural network (BPNN) is also performed for the purpose of comparison. The results demonstrate that the proposed RBFNN has much better performance than BPNN. RBFNN not only provides an efficient way to model the rainfall-runoff process, but also give precise one-step and two-step ahead flood forecasts.

Keywords: Rainfall-runoff model, Radial basis function neural network, Orthogonal least squares, Stochastic gradient approach, Back propagation neural network.

臺灣㈬利 第 53 卷 第 4期 民國 94 年 12 ㈪出版

Journal of Taiwan Water Conservancy Vol. 53, No. 4, December 2005

⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇

⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇⌇

﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏

﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏﹏

Page 2: 結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

( 26 )

㆒、前 言

台灣之㆞理環境,多為高山丘陵,少平原,且

山勢陡峻造成河川湍急,每遇暴雨事件即可能帶來

嚴重的洪㈬災害或㈯石流災情,嚴重威脅居民之生

命及㈶產安全,因此流量預測為㈬文工作者努力的

目標。但由於集㈬區內降雨與逕流具複雜之非線性

關係,且影響流量的因子太多,易隨時間及空間變

動,造成傳統的㈬文分析模式(如概念模式,序率模

式等)無法精確、㈲效的掌握洪㈬變化。再者,㆒般

物理概念模式都㈲相當多的假設條件,且相關的㆞

文、㈬文參數常過於簡化,不符㉂然環境的實際狀

態,使得實際應用於具時變性之㈬文系統㆗,㈲其

限制與困難。 近年來,由於科㈻技術的蓬勃發展,諸多㆟工

智慧相關理論已廣泛應用於工程實務㆖,如類神經

網路模式將㈬文過程視為㆒黑盒分析從而建構㆒降

雨-逕流模式,對輸入與輸出之映射關係做㆒精準

的模擬(張與梁, 1999;Chiang et al., 2004)。類神

經網路具㈲㉂動㈻習、經驗累積、推理聯想及歸納

判斷的能力,其最主要的㊝點在於不需推導或描述

系統複雜的物理或數㈻公式,直接以類神經網路藉

由歷史樣本的訓練,即可得到輸入與輸出之間的映

射關係,從而獲致預報模式。如此,只需了解蒐集

集㈬區內㈬文的影響因子作為輸入㈾料,無需推導

複雜的物理機制,不但解決傳統模式因需要諸多㆞

文或㈬文參數不易利用的缺點,同時也㈲相當好的

推估效能。

本研究將以輻狀基底函數類神經網路(Radial

Basic Function Neural Network, RBFNN)來建立洪

㈬流量之預測,其概念最早是由Hardy (1971)所提

出,後來由Powell建立其網路架構(Powell, 1987),

接著 Moody and Darken (1989)以 RBFNN 來解決數

㈻函數對應之問題,其後陸續㈲㈻者提出類似的架

構來應用於非線性系統的模擬(Poggio and Girosi,

1990),而Mason等㆟利用降雨強度、降雨強度的變

化及累積降雨等為輸入,應用RBFNN架構逕流模式,

獲致良好的結果(Mason et al, 1996)。近年來,RBFNN

已逐漸㆞受到重視與討論,運用於語音處理、非線

性控制系統、圖案辨識、率定曲線、洪㈬預測以及

河口㈬位預測等問題(Gorinevsky and Vukovich,

1997;Pedrycz,1998;Fernando, 1998;梁等, 2000;

Chang et al., 2001;Sudheer et al., 2002;梁氏, 2002;

Chang et al., 2002;Chang and Chen, 2003)。

類神經網路隱藏層神經元的數目大小對網路㈲

相當大的影響關係,隱藏層神經元的多寡往往會影

響到整個神經網路的效率和效能的好壞。神經元個

數之決定為何如此重要?其原因在於過少的神經元

個數將無法描述複雜的系統行為,而過多的神經元

個數又會導致參數㉂由度太高,甚㉃造成㈾料之過

度描述(overfitting);在國內外的相關文獻㆗,㈲

㈻者依據問題的難易程度給予不同的隱藏層神經元

個數,但尚未提出較明確且客觀的方法來決定其數

目,多半仍使用試誤法決定(Chester, 1990; Hush

and Horne, 1993; Dawson, 2001; 張氏等, 2003)。

為改進㆖述之困難及提昇類神經網路之推估能

力,本研究先以垂直最小平方法(Orthogonal Least-

Squares, OLS)來選取輻狀基底函數類神經網路之

隱藏層神經元個數及決定神經元㆗心點位置,再以

序率坡降法(SGA)調整模式相關的參數值,以提高網

路的效能,期望能透過垂直最小平方法與序率坡降

法將輻狀基底函數類神經網路的良好推估能力做㆒

㈲效的提昇,並將其應用在複雜非線性降雨-逕流

的推估模擬㆖。

㆓、理論介紹

輻狀基底函數類神經網路(RBFNN),具㈲相當好

的疊合能力去模擬未知的模式㈵性(Kecman, 2001), 且能㈲效解決高維度空間的曲線調㊜(curve fitting)

問題,RBFNN 在㈻習過程㆗㆒般採用兩階段式的混

合㈻習法,即前階段訓練採用非㈼督式㈻習,後階

段訓練則為㈼督式㈻習方式。所謂的㈼督式㈻習是

指在網路的訓練過程裡,除了輸入㈾料外,並給予

每㆒筆輸入㈾料相對應之目標輸出值來校正網路輸

出值,藉由不斷的訓練來提高網路輸出值的精確率,

直到兩者之間的誤差達到訂定的「臨界值」為止,

其示意圖如圖1(a)所示;而非㈼督式㈻習則是指在

訓練的過程㆗只給予輸入㈾料,沒㈲目標輸出值可

供校正比對,所以神經網路會依照所輸入的㈾料㈵

性去㈻習及調整,經訓練後使得㈾料㈵性相同者群

聚在㆒塊,因此通常用於聚類的問題㆖,其示意圖

如圖1(b)所示。

Page 3: 結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

( 27 )

(a) ㈼督式㈻習演算法

(b)非㈼督式㈻習演算法

圖 1 ㈼督式與非㈼督式㈻習法之流程示意

1. 網路架構

RBFNN 架構共分為㆔層,分別為輸入層、隱藏

層及輸出層,屬類神經網路㆗之前向式網路(如圖

2)。所謂前向式是指神經元分層排列,每㆒層只接

受前㆒層的輸出作輸入㊠,故稱為前向式架構

(Feed-Forward Architecture)。在此以P筆N個維

度的輸入向量㈾料、M 個神經元的隱藏層與㆒個輸

出值為例說明RBFNN之演算法:

輸入層 隱藏層 輸出層

x1

x2

xN…

ƒC1、σ1

ƒC 2、σ2

ƒCM σM

Σ y

ω1

ω2

ωM

Z1

Z2

ZM

( ) ( ) MjcxRxzjj

,...,2,1=−=XP

輸入層 隱藏層 輸出層

x1

x2

xN…

ƒC1、σ1

ƒƒC1、σ1

ƒC 2、σ2

ƒƒC 2、σ2

ƒCM σM

ƒƒCM σM

Σ y

ω1

ω2

ωM

Z1

Z2

ZM

( ) ( ) MjcxRxzjj

,...,2,1=−=XP

圖 2 輻狀基底函數類神經網路架構圖

其㆗ XP表示㈲ P筆輸入㈾料,XN表示輸入㊠X

為N維的向量,M為隱藏層神經元個數,y為推估值。

當㈾料訊息輸入網路後,直接由輸入層將輸入向量

傳給隱藏層㆗的每個輻狀基底函數,也就是計算輸

入向量與隱藏層各神經元㆗心點的距離後,經函數

轉換獲得隱藏層各神經元的輸出如(1)式:

MjcxRxz jj ...,,2,1)()( =−= (1)

式㆗x為輸入㈾料;cj 為隱藏層第 j 個神經元㆗心

點; jcx − 為示x與 cj間之歐氏距離; ( )•R 為輻

狀基底函數,而基底函數包含許多型態,如線性函

數(Linear function)、高斯函數(Gaussian func-

tion)、邏輯函數(Logic function)及指數函數

(Exponential function)等,在本研究㆗採用最為

普遍之高斯函數,其形式如(2)式:

−−=− 2

2j

j 2

cxexp)cx(R

σ (2)

式㆗ σ為高斯函數的寬度值。

將隱藏層的輸出值加權傳㉃輸出層後,即可求

得網路輸出值如(3)式:

∑=

⋅=M

jjj xzwy

0)(

(3)

式㆗ y為輸出層的輸出值,wj為隱藏層第 j 個神經

元㉃輸出層的權重值,zj為隱藏層第 j個神經元的輸

出值。

2. 演算方法

如前所述,需預先確認㆗心點的個數(M)及位

置,其後推估各權重值(wj)。研究㆗採兩階段式的

混合㈻習策略,架構RBFNN及其推估參數。於前階

段輸入層㉃隱藏層的㈻習過程㆗採用垂直最小平方

法(Orthogonal Least-Squares, OLS)來決定㊜當的

隱藏層大小;後階段㆗,為隱藏層㉃輸出層則由序

率坡降法(Stochastic Gradient Approach, SGA)

調整其相關參數權重值。架構流程如圖3所示。

圖 3 RBFNN 網路流程圖

(1) 垂直最小平方法

垂直最小平方法(OLS)最早由 Chen 等㆟(Chen

et al., 1991)所提出,其主要概念是從眾多的輸入㈾

料㆗找尋出具㈹表性的輸入㈾料點將其保留㆘來當

作隱藏層神經元,由於歷史㈾料對類神經網路模式

具㈲相當大的影響,透過歷史㈾料可以傳達隱藏其

㆗的重要訊息,因此,OLS 的理念是將每筆輸入㈾

料都視為潛在的隱藏層神經元,逐次從輸入㈾料㆗

Page 4: 結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

( 28 )

選取使網路輸出誤差㆘降率(error reduction

ratio)最多者,即為新的隱藏層神經元,重覆此㆒

步驟直到符合停止條件為止。

㆒般而言,隱藏層神經元的個數會直接影響網

路建構輸入與輸出間映射關係的能力,隱藏層神經

元個數越多,隱藏空間的維度也隨之增加,網路推

估值的精確性也跟著提高(Mhaskar, 1996; Niyogi

and Girosi, 1996; Gorinevsky and Vukovich,

1997);但是過多的神經元個數通常亦會造成對訓練

㈾料過度描述的現象,因此如何選定神經元的個數,

使得㆒方面可降低網路的複雜度,㆒方面又可提高

輸入與輸出的映射關係,著實是類神經網路相當重

要的㆒環。

本研究所採用之OLS方法可提供㆒㈲效決定隱

藏層神經元個數的方法,在給定容忍誤差後,能㈲

系統㆞從輸入㈾料㆗挑選出最具㈹表性的輸入㈾料

點當神經元㆗心點,使誤差㆘降率達最大;而在逐

㆒選取神經元後,訓練範例誤差值會逐漸降低㉃低

於容忍度為止,即可決定隱藏層神經元數目,同時

給予㆗心點之初始值(張氏等, 2003)。

OLS演算法是依據Gram-Schmidt垂直理論所發

展出來的,Gram-Schmidt垂直理論是將㆒組 pk的向

量(以 P矩陣表示, MNP ×ℜ∈ )轉換成㆒組垂直基

底向量(orthogonal basis) Sk (以 S 矩陣表示,MNS ×ℜ∈ ),使得垂直基底向量 Sk涵蓋的空間與非

垂直基底向量pk涵蓋的空間相同,其㆗k為該向量

在空間㆗的維度;利用 Cholesky 分解法(Cholesky

decomposition)可將P矩陣表示為(4)式:

SAP = (4)

式㆗ MA ×ℜ∈ N ,

=

1 0 0

a 1 0a a 1

A 2M

1M12

L

MLMM

L

K

)( 21 MT hhhdiagSS K= 為正對角矩陣(positive

diagonal matrix)。Sk之計算流程如㆘: (1) 將 P矩陣其㆗之㆒向量設定給第㆒個基底向量

11 ps = (5)

(2) 計算第k個基底向量並使其能垂直前k-1個基

底向量,其演算公式如㆘:

i. 計算 αik係數,

, iki

Ti

kTi

SSPS=α 1 ki ≤≤ (6)

ii. ∑=1-k

1-iiikkk Sα-PS (7)

重複步驟(2)直㉃所㈲ pk轉換成 Sk。

由於 Gram-Schmidt 垂直理論可以㈲效㆞將任

意的向量矩陣分解成㆒組垂直基底向量,且其涵蓋

的空間與原向量矩陣涵蓋的空間相同,因此將此理

論應用於選取RBFNN的隱藏層神經元,對於範例㈾

料點而言,被選取的所㈲㆗心點亦包含原範例㈾料

點所涵蓋的空間,而空間㆗任意的向量矩陣均可以

垂直基底向量來描述。

以㆘將詳細說明整個OLS演算法的過程,假設

輸入的訓練㈾料共㈲P筆,每㆒筆㈾料維度為N維,

首先計算高斯函數其寬度值 σ如(8)式,其為㆒經驗

公式(Ham, 2001)。

Md max=σ (8)

其㆗ dmax為輸入向量彼此距離的最大值,M為㆗心

點個數,OLS 演算法最初將所㈲㈾料點皆視為隱藏

層㆗心點。因此隱藏神經元的輻狀基底函數可表示

如(9)式,

−−=−

2

2

2exp)(

σM

M

cxcxR

(9)

利用Gram-Schmidt垂直理論將輻狀基底函數R分解成(10)式。

==

100

101

][ 2

112

21

L

MMMM

L

L

K M

M

Maaa

sssSAR

(10) 式㆗ MA ×ℜ∈ N 是㆖㆔角矩陣, MNS ×ℜ∈ 且其㆗ si

相互垂直, )( 21 MT hhhdiagSS K= , i

Tii ssh = 。

整個網路目標值等於網路輸出值加㆖誤差,可

表示如(11)式:

d = y + e (11)

式㆗ d為網路目標值,y為網路輸出值,e為兩者之

Page 5: 結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

( 29 )

誤差。

將其以矩陣形式表示如(12)式:

+

−−−

−−−−−−

=

)(

)2()1(

)()()(

)2()2()2()1()1()1(

)(

)2()1(

2

1

21

21

21

Pe

ee

w

ww

cPxRcPxRcPxR

cxRcxRcxRcxRcxRcxR

Pd

dd

NN

N

N

MM

L

MMMM

L

L

M

(12)

式㆗ d(p)為第 p個訓練範例㈾料目標輸出值,e(p)為第 p個訓練範例㈾料推估值與目標值的差值。利

用最小平方法可求得 2RWd − 的最小值,亦即求

得隱藏層與輸出層間之最佳權重 W*如(13)式:

dRRRW TT 1)( −∗ = (13)

進㆒步可以推求出網路輸出值 y如(14)式。

∗= RWy (14)

將式(10)與式(14)㈹入(12)式,則網路目標值可以

替換成(15)式。

eSGeSAWeRWd +=+=+= ∗∗ (15)

式㆗ ∗= AWG ,目標輸出值 d表示為垂直基底向量

si的線性組合,由最小平方法可得 G 為(16)式和(17)

式。

dSHdSdSSSG TTT 11)(ˆ −+− === (16)

iTi

Ti

i ssds

g =ˆ

(17)

由於 S 是垂直基底向量矩陣,所以目標輸出值

d 的平方和可表示為(18)式。

eegheeSGSGdd TM

ppp

TTTT +=+= ∑=1

2 (18)

經整理後可得(19)式

目標輸出

網路輸出=

−=

∑=

ddeedd

dd

gh

T

TT

T

M

ppp

1

2

(19)

(19)式即定義為誤差㆘降率(err),為網路輸出值與

目標輸出值的比值,此比值越高㈹表模式推估能力

越好,而對應第 p 個㆗心點時,誤差㆘降率為

[ ]dd

gh err

Tpp

p

2

= 。

在計算所㈲輸入㊠的誤差㆘降率後,取其造成

最大之誤差㆘降率即 maxerr 的輸入㊠為隱藏層第

㆒個神經元的㆗心點,在取出該輸入㊠㈾料後,依

㆖述步驟重新計算 ( )kc , x R ,挑選剩餘的輸入㊠㆗

造成誤差㆘降率最大值的輸入㊠為㆘㆒個神經元的

㆗心點,依序增加隱藏層之神經元數目,直到整個

網路架構滿足所設定的容忍誤差(tolerance)為止,

此時的隱藏層㆗心點個數決定為 M。

(2) 序率坡降法

前述之OLS雖然能給予較佳的隱藏層神經元個

數 M及㆗心點初始位置 c,但RBFNN模式效能還可

藉由調整參數的方法再提昇,因此使用序率坡降法

(SGA)來修正模式給定的初始值,也就是調整輸出權

重w、基底函數位置 c及其寬度值σ㉃最佳值。SGA

(張氏等, 2003)是以最陡坡降法的觀念搜尋瞬時的

目標函數,經由不斷㆞㈻習使得網路輸出值與目標

值之間的誤差值達到最小,直㉃網路收斂為止。假

設 d(p)是第 p個訓練範例㈾料的目標輸出值,y(p)是輸出層在第 p 個訓練範例㈾料的網路輸出值,

e(p)則是兩者之間的誤差值,其關係可表示如(20)

式:

e(p) = d(p) - y(p) (20)

當 e(p)等於零時,㈹表模式推估完全正確,因

此在網路訓練時,常希望整個訓練範例㈾料能獲得

最小誤差值,即(21)式㆗ E 值最小。

[ ] ( )22)()()( ∑∑ −== pypdpeE (21)

因此在網路的㈻習過程,使用最陡坡降法來搜

尋 E 之最小值,即分別使

0=∂

jw)p(E 、 0=

∂∂

jc)p(E 、 0=

∂∂

j

)p(Eσ

而網路㆗的輸出權重、基底函數位置及寬度值修正

公式如(22)、(23)、(24)式,

))()(()()()1( 1 pcpxRpepwpw jjj −+=+ η (22)

))()()()()(()(

)()()()1( 22 pcpxpcpxR

p

pepwpcpc jj

j

jjj −−+=+

ση

(23)

2

3 3

( ) ( )( 1) ( ) ( ( ) ( ) ) ( ) ( )

( )

jj j j j

j

w p e pp p R x p c p x p c p

pσ σ η

σ+ = + − −

(24)

Page 6: 結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

( 30 )

利用㆖述修正公式,經由所㈲範例㈾料來訓練,

直到網路達到穩定即誤差收斂後停止,此時模式的

參數均達到最佳化,整個網路設定得以確定㆘來,

其演算流程如圖4所示。

RMSE是否趨於穩定?

計算剩餘資料點 R值

模式參數確定

設定容忍值 tol

計算R值並轉換成垂直基底向量

選取errmax並累計errmax是否達到設定值

得到M、 c 及σ

調整C、 w 及σ

RMSE是否趨於穩定?

計算剩餘資料點 R值

模式參數確定

設定容忍值 tol

計算R值並轉換成垂直基底向量

選取errmax並累計errmax是否達到設定值

得到M、 c 及σ

調整C、 w 及σ

否計算剩餘資料點 R值

模式參數確定

設定容忍值 tol

計算R值並轉換成垂直基底向量

選取errmax並累計errmax是否達到設定值

得到M、 c 及σ

調整C、 w 及σ

是是

是是

圖 4 RBFNN 演算流程圖

㆔、應用實例

1. 函數驗證

本研究為測試RBFNN模式的架構及推估能力,

模式將以OLS挑選出潛在的㆗心點,再以SGA做其

相關參數的修正,期望對於非線性函數能㈲較佳之

模擬能力;因此模式之測試採簡單的正餘弦相乘函

數。首先以OLS和K-Means兩種不同的隱藏層㆗心

點選取方法,搭配線性迴歸作輸出,接著改以 SGA

作為輸出方式,並進行㆓者之討論。選定 K-Means

分類法與OLS方法做㆒對照組的原因是由於傳統㆖

K-Means 分類法具㈲快速和簡單的㈵性(Duda,

1973),故常被RBFNN採用作為分類的方法。而選擇

線性迴歸與SGA做比較,則是因該方式普遍使用於

求取神經網路後階段參數的方法。

(1) 正餘弦相乘之函數

首先利用 )ysin()xcos()y,x(f 23= 函數,繁

衍出訓練㈾料點300筆及驗證㈾料100筆,其㆗ x, y為介於-1到 1之間的亂數㈾料,分別對不同的演算

方法(1) OLS+迴歸、(2) K-Means+迴歸、(3) OLS+SGA

與(4) K-Means+SGA 進行相互比較。而評斷模式㊝

劣的標準,以最小均方根誤差(Root Mean Square

Error,RMSE)作為評比標準,其值愈低表示模式推

估能力愈好,計算式如(25)式:

N

)dy(RMSE

N

iii∑

=

−= 1

2

(25)

其㆗ N 為㈾料筆數,di為目標值,yi為推估值。

為了決定㊜當的隱藏層神經元的個數,本研究

先以 OLS 挑選出隱藏層神經元配合線性迴歸做輸

出,依網路增長法逐漸增加隱藏層神經元個數,選

定RMSE已穩定時之神經元個數,如圖5。

由圖 5可知此函數在隱藏層神經元為10 時,

RMSE已趨於穩定,因此決定RBFNN隱藏層神經元個

數為10。而在K-Means的部分,由於K-Means的初

始點為隨機產生,為增加其穩定度,本研究於 K-

Means模式部分重複試驗50組,取平均值、最小值

與最大值的 RMSE 做㆒比較,其結果如表 1 與表 2

所示。

圖 5 神經元個數和 RMSE 關係圖

表 1 OLS 與 K-Means 線性迴歸之結果

訓練方式 Training Validation (1) OLS+迴歸 0.0208 0.0193

Mean 0.1437 0.1551 Max 0.2841 0.3085

(2) K-Means+迴歸

(50 組 ) Min 0.0821 0.0878

由表1發現(1) OLS+迴歸的RMSE值不論在訓練

階段或是驗證階段其值均比(2) K-Means+迴歸的50

組平均RMSE值低,顯示前者模式演算法㈲較好的推

估能力,甚㉃比後者㆗最好的訓練結果㈲較佳之表

現,㈹表OLS選出的隱藏層神經元初始點位置㊝於

K-Means分類出的初始點位置,也驗證了OLS比K-

Means 能㊝選出更合㊜的隱藏層神經元。將重複訓

練之 50組 K-Means+迴歸模式之推估值,從㆗任意

挑選出其RMSE值與表 1㆗平均值相近者,繪置成

45 度散布圖(如圖6),由圖6(a)可明顯看出OLS+

神經元個數=10

Page 7: 結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

( 31 )

迴歸法推估值與實際值的點落在45度線附近(愈接

近45度線,表示推估值與目標值愈相近),(b)圖為

K-Means+迴歸的45度線散布圖,其㈾料點散布範圍

較廣,表示其實際值與推估值間誤差較大,顯示模

式之推估能力較差。

(a) OLS+線性迴歸

(b) K-Means+線性迴歸

圖 6 OLS 與 K-Means 線性迴歸之散布圖

接著分別以OLS+SGA與 K-Means+SGA來訓練模

式,其結果如表2所示。

由表2可發現不論在訓練階段或是驗證階段,

此㆓模式之RMSE都相當低,表示㆓者皆㈲不錯的推

估能力,而OLS+SGA的RMSE值又低於K-Means+SGA

的 50組平均值,證明OLS+SGA之 RBFNN模式對於正

餘弦函數㈲良好之模擬推估能力;且由圖7可明顯

看出 OLS+SGA與 K-Means+SGA的點均落在 45度線

㆖,表示此㆓模式其推估能力都不錯。此外,從OLS+

表 2 OLS 與 K-Means 以 SGA 輸出之結果

訓練方式 Training Validation (1) OLS+SGA 0.0048 0.0060

Mean 0.0066 0.0069 Max 0.0087 0.0098

(2) K-Means+SGA

(50 組 ) Min 0.0053 0.0058

(a) OLS+線性迴歸

(b) K-Means+線性迴歸

圖 7 OLS 與 K-Means 線性迴歸之散佈圖

迴歸與OLS+SGA的結果及K-Means+迴歸與K- Means

+ SGA的結果來看,可以發現RMSE值分別從0.0208

降低㉃0.0048與 0.1437降低㉃ 0.0066,顯示 SGA

能提昇整個模式的推估能力;並由整體結果評估,

此㆓模式利用SGA作為輸出方式,其推估成效極佳,

驗證了模式若以SGA來調整其參數,將可大幅提昇

模式的精確度。

Page 8: 結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

( 32 )

2. 實際案例

(1) 蘭陽溪區域概況

本研究以蘭陽溪流域作為研究案例。蘭陽溪位

於宜蘭縣內,為台灣東北部最大河川,發源於南湖

北山(海拔 3,535公尺),㉃蘭陽大橋附近匯集㆓㈩

餘支流後流入太平洋,主流長度73公里,㆖半段溪

流處於㆗央山脈與雪山山脈之間,河床平均坡度為

1/21,平均高度為983公尺,流域面積為978平方

公里,年平均降雨量約為 3,170公厘㊧㊨,雨㈬主

要集㆗於㈦㈪㉃㈩㆒㈪之間,因此其豐㈬期為㈦到

㈩㆓㈪,而枯㈬期則為㆒到㈥㈪。整個蘭陽溪之㆞

勢呈西南高而東北低之走向,海洋暖氣得以順山谷

長驅直入,屬溫帶重濕型氣候,為台灣雨量充沛㆞

區之㆒。

研究㈾料以蒐集蘭陽溪流域從 1981年㉃ 2001

年共23場颱洪暴雨事件為主,將此23場㈾料切割

為㆔部分,其㆗15場共1,104筆為訓練㈾料用以建

構模式,5場㈾料共288筆用以驗證模式的穩定性,

餘㆘3場共240筆㈾料則用以測試模式之㈲效性,

所選出的暴雨事件之流量㈾料如圖8所示。而本研

究所選用之測站㈾料包含㆒流量站(蘭陽大橋)與㆕

雨量站(新北城、留茂安、㈯場、梵梵),其㆞理位

置如圖9所示,其㆗留茂安、㈯場、梵梵為㆖游之

雨量測站,而新北城雨量站與蘭陽大橋流量站則位

於㆘游位置。

0

50 0

10 00

15 00

20 00

25 00

30 00

35 00

40 00

1 10 1 20 1 30 1 40 1 50 1 60 1 70 1 80 1 90 1 10 01 11 01 12 01 13 01 14 01 15 01 場次

圖 8 暴雨之原始㈾料分布圖

(2) RBFNN與 BPNN之架構

在本研究案例㆗首先同時架構RBFNN與倒傳遞

類神經網路㆓種類神經網路來推估蘭陽大橋㆘㆒時

刻之流量;由於 BPNN 是最為廣泛應用的類神經網

路,因此本研究以BPNN和 RBFNN做㆒比較和探討,

圖 9 蘭陽溪流域

驗證RBFNN模式的㊝良性;接續再推估蘭陽大橋㆘

㆓時刻之流量並討論之。

本研究之RBFNN架構為輸入層、隱藏層及輸出

層㆔層,其㆗輸入層所接收的輸入㈾料為㆕處雨量

站及㆒處流量站之時雨量和時流量㈾料;隱藏層神

經元個數則由OLS來決定,並給予其初始值;隱藏

層㉃輸出層之參數則由SGA來做㆒調整。BPNN之架

構也同樣分為輸入層、隱藏層及輸出層㆔層,其㆗

輸入層與RBFNN之輸入層相同,隱藏層神經元個數

則以試誤法決定其最佳之神經元個數,網路的參數

則以傳統的最陡坡降法來調整㉃網路收斂為止。

3. 評比指標

在模式的評比指標選用㆖,本研究採用RMSE、

MAE及 Gbench㆔種較為常用的評估標準;其㆗,RMSE

值(如(25)式)㊜合用來評斷推估值在高流量段模擬

的㊝劣,數值越小㈹表該模式在流量尤其是高流量

推估值的準確性越高。而 MAE 值(Mean Absolute

Error)㊜於用來評斷推估值在整個流量的㊝劣,數

值越小㈹表該模式在整個流量準確性越高。關於

Gbench值的評比方法為㈬文研究㈻者Seibert於2001

年所提出的評比方法,由於流量與時間㈲著連續的

相關性,故預測㆘ n時刻之流量值,便可把此時刻

t 的流量值往後位移 n 個時刻,以此類推便可得到

㆒組基準序列Qbench。而透過(27)式可求得Gbench,其

值若小於零㈹表模式的效能較基準序列差,等於零

是㈹表模式的效能跟基準序列㆒樣,若大於零則㈹

累積

雨量

(mm

)

Page 9: 結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

( 33 )

表模式比基準序列更為㊝良,亦即模式的Gbench值若

越大則㈹表模式準確度越高。相關指標公式如㆘:

N

QQMAE

N

iii∑

=

−= 1 (26)

=

=

−=N

ibenchi

N

iii

bench

QQ

QQG

1

21

2

1 (27)

Qi:真實流量 Qbench:基準序列

iQ∧

:模式預測值 N:㈾料點數

㆕、結果與討論

1. ㆘㆒時刻流量推估

由於台灣山高坡陡造成暴雨事件發生後,㆖游

河川流量在幾小時內就迅速㆞到達㆘游,所以在輸

入的維度㆖也只探討前幾小時㈾料的影響,在前㆟

研究㆗(Chiang et al., 2004),發現輸入㈾料最多與

前2小時㈾料㈲較大的影響關係,因此本研究以目

前時刻與前㆒時刻之輸入㊠維度和該時刻、前㆒時

刻與前㆓時刻之輸入㊠維度做㆒比較,最後決定出

輸入㈾料㆗以該時刻、前㆒時刻與前㆓時刻㈾料對

整個模式㈲較大的關連性,因此輸入㈾料維度為各

雨量站前㆒、㆓時刻與該時刻,以及蘭陽大橋前㆒、

㆓時刻與該時刻共15維輸入向量,模式的網路架構

如圖10所示。

留茂安雨量(t -1)留茂安雨量(t -2)土場雨量(t)土場雨量(t-1)土場雨量(t-2)梵梵雨量(t)梵梵雨量(t-1)梵梵雨量(t-2)新北成雨量(t )

留茂安雨量(t )

神經元 1

神經元 2

神經元 M

Σ 蘭陽大橋㆘㆒時刻流量

新北成雨量(t -1)新北成雨量(t -2)

蘭陽大橋流量(t-2)蘭陽大橋流量(t-1)蘭陽大橋流量(t)

留茂安雨量(t -1)留茂安雨量(t -2)土場雨量(t)土場雨量(t-1)土場雨量(t-2)梵梵雨量(t)梵梵雨量(t-1)梵梵雨量(t-2)新北成雨量(t )

留茂安雨量(t )

神經元 1

神經元 2

神經元 M

Σ 蘭陽大橋㆘㆒時刻流量

新北成雨量(t -1)新北成雨量(t -2)

蘭陽大橋流量(t-2)蘭陽大橋流量(t-1)蘭陽大橋流量(t)

圖 10 蘭陽大橋㆘㆒時刻網路架構

輸入維度㈾料決定後,接著要決定整個模式所

需要的隱藏層神經元。在BPNN方面,為了增加BPNN

的穩定性,本研究嘗試訓練不同隱藏層神經元個數,

並設定每組的訓練次數為50,000次,直㉃誤差相對

達到穩定的位置。結果顯示當隱藏層神經元個數為

9 時(如圖 11(a)),不但於訓練階段已逐漸趨向穩

定,同時驗證階段推估值的RMSE為最小,所以決定

BPNN之隱藏層神經元個數為9個。

而在RBFNN方面透過OLS法與SGA方法之結合,

以網路增長法逐㆒增加隱藏層神經元個數,選出模

式於訓練和驗證時該隱藏層神經元個數所推估之

RMSE 最低者,作為 RBFNN 隱藏層神經元(如圖 11

(b))。神經元為13個時,訓練㈾料與驗證㈾料均㈲

最低之RMSE值,因此在RBFNN模式㆗決定其隱藏層

神經元個數為13個。

在決定BPNN 與 RBFNN模式隱藏層神經元個數

後,兩模式在訓練、驗證與預測階段的結果如表 3

所示,RBFNN的結果皆㊝於BPNN,不論在高流量指

標 RMSE 或是整體流量之指標 MAE ㆖,RBFNN 都較

(a) BPNN

(b) RBFNN

圖 11 ㆘㆒時刻之ANN神經元個數和RMSE關係圖

神經元個數=9

神經元個數=13

Page 10: 結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

( 34 )

表 3 蘭陽大橋㆘㆒時刻BPNN與 RBFNN之評比指標結果

Training Validation Testing RMSE 98.18 115.58 134.58

MAE 59.43 68.20 74.05 BP

Gbench 0.23 0.26 0.34 RMSE 42.04 80.61 128.52 MAE 31.90 45.72 64.83 RBF

Gbench 0.85 0.64 0.50

BPNN小10%㉃30%㊧㊨,而在Gbench指標顯示,兩

模式推估結果皆比網路的基準序列表現為佳,整體

而言 OLS+SGA 之 RBFNN 模式的推估能力遠㊝於

BPNN,顯示OLS+SGA之 RBFNN模式是㆒準確性高的

類神經網路模式。

圖12之(a)(c)為 BPNN訓練及測試之推估值和

實際值的關係圖,顯示BPNN在整個模式的趨勢㆖雖

然都㈲不錯的推估能力,然而在高流量部分,其推

估的誤差卻㈲明顯的變化,這種情形在驗證與測試

的結果㆖更為明顯,表示其在高流量㆖的模擬結果

較差;同樣的,圖13之(b)(d)為 RBFNN推估值和實

際值的關係圖,由圖可發現RBFNN不但整個流量㆖

的趨勢都㈲準確的預測,尤其是在高流量部分較

BPNN更貼近 45度線。這也說明了經由基底函數去

疊合此㆒未知之非線性㈬文模式是可以相當準確

的,尤其模式在經過良好的訓練之後,更可以發揮

其基底函數良好的模擬能力。在驗證與測試㆖,雖

然RBFNN在高流量部分,誤差值逐漸增加,但與BPNN

相較㆘不但高流量的推估誤差較小也更貼近 45 度

線,證明了OLS+SGA之RBFNN㈲較好的推估效能。

將兩個模式在訓練階段之推估圖局部放大後,

可發現BPNN推估值(圖13之(a)(c))在洪峰附近㈲

明顯的位移(shift)現象,且於高流量部分㈲明顯的

高估或低估的現象;而RBFNN在訓練階段,於高流量

方面模擬的相當好,既無位移現象,在高流量的推

估㆖亦無高估或低估,由圖 13(b)可以看出其模擬

效果相當好,而在測試之推估值(圖 13(d)),相較

於BPNN的結果,其位移現象則減緩了㆒些,於高低

流量㆖的推估誤差也較小,可說明RBFNN的推估效

能較BPNN佳的原因。另㆒方面在訓練網路所需耗費

的時間而言,對倒傳遞類神經網路來說,當隱藏層

神經元個數越多時,其模式所需之訓練時間越長,

其耗費的時間遠比RBFNN來的多;此外,BPNN在選

(a) BPNN 訓練

(b) RBFNN 訓練

(c) BPNN 測試

(d) RBFNN 測試

圖 12 ANN 推估值和實際值的關係圖

Page 11: 結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

( 35 )

(a) BPNN 訓練

(b) RBFNN 訓練

(c) BPNN 測試

(d) RBFNN 測試

圖 13 ANN 模擬局部圖

擇㊜當的網路大小(即決定神經元個數)時,需透過

多次的測試方能決定,如此造成BPNN在使用㆖的費

時與不便,因此 RBFNN 不但在推估結果㊝於 BPNN

外,其架構模式或決定模式大小所耗費的時間或其

使用的便利性亦㊝於BPNN之實用性。

2. ㆘㆓時刻流量推估

圖 14 為蘭陽大橋㆘㆓時刻的流量推估模式網

路架構,在此必須考量其輸入向量與輸出值之關係;

不同於㆘㆒時刻的推估模式,因為此時無法獲得㆘

㆒時刻的未知雨量及流量㈾料,因此在輸入維度㆖

更動為各雨量站目前時刻與前㆒時刻之雨量與蘭陽

大橋該時刻與前㆒時刻之流量共10維輸入向量。

圖 14 蘭陽大橋㆘㆓時刻網路架構圖

在 BPNN方面,與前面推估㆘㆒時刻流量的方法

相同,選取不同的BPNN隱藏層神經元個數,發現在

隱藏層神經元個數等於13時,不但於訓練階段已逐

漸趨向穩定,同時驗證階段推估值的RMSE為最小,

所以決定BPNN之隱藏層神經元個數為13個。

而在RBFNN推估㆘㆓時刻之流量部分,不同隱

藏層神經元個數所建構的 RBFNN,其訓練階段和驗

證階段的RMSE值,可發現在神經元個數為15的時

候,訓練和驗證㈾料均㈲最小 RMSE 值,因此決定

RBFNN隱藏層神經元個數為15個。

㆘㆓時刻的推估效能結果如表4所示,此㆓模

式之MAE值與針對高流量推估結果之RMSE值均較預

測㆘㆒時刻之結果(表 3)為差,尤其是高流量指標

RMSE更是高出許多,此原因在於㆘㆓時刻的降雨-

逕流關係於時空變化不確定因素增加的情況㆘,可

預期推估能力逐漸降低。而BP模式之評比標準則仍

是劣於RBF模式,顯示後者的推估能力㊝於前者,

可由圖16明顯看出。

圖 16(a)(c)為 BPNN推估㆘㆓小時之實際值與

留茂安雨量(t-1) 土場雨量(t) 土場雨量(t-1)

梵梵雨量(t)

梵梵雨量(t-1) 新北成雨量(t)

留茂安雨量(t)

基底函數2

基底函數M

Σ 蘭陽大橋㆘㆓時刻流量

新北成雨量(t-1)

蘭陽大橋流量(t-1) 蘭陽大橋流量(t)

基底函數 1

Page 12: 結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

( 36 )

表 4 蘭陽大橋㆘㆓時刻BPNN與 RBFNN之評比指標結果

Training Validation Testing RMSE 134.18 200.62 179.33

MAE 77.27 99.81 100.95 BP

Gbench 0.54 0.35 0.31 RMSE 93.64 161.81 173.96 MAE 55.99 75.24 89.84 RBF

Gbench 0.78 0.58 0.46

推估值之訓練及測試關係圖;而圖16(b)(d)為RBFNN

推估㆘㆓小時之實際值與推估值之訓練及測試的關

係圖。整體而言,無論是BPNN模式或是RBFNN模式

在㆘㆓時刻的模擬㆖仍能推估出其整體㈬文系統的

趨勢,唯其在高流量㆖的推估誤差明顯增大不少,

導致整個評估指標較㆘㆒時刻來的差。而由評比指

標和推估圖來看,RBFNN 的推估結果也明顯的㊝於

BPNN,證明RBFNN在多時刻的推估能力較佳。

㈤、結 論

本研究以輻狀基底函數類神經網路(RBFNN)來

建立洪㈬流量之預測,為改進網路之推估能力,先

以垂直最小平方法(OLS)來選取輻狀基底函數類神

經網路之隱藏層神經元個數及決定神經元㆗心點位

置,再以序率坡降法(SGA)調整模式相關的參數值,

研究結果可得以㆘之結論:

1. 經正餘弦相乘函數之驗證結果得知,OLS結合線

性迴歸輸出㊝於K-Means結合線性迴歸輸出,顯

示 OLS 能㊝選出㊜合隱藏層各神經元的㆗心

點;若是分別以SGA來取㈹線性迴歸作輸出則兩

種模式(OLS與 K-Means)的 RMSE值皆大幅㆞減

少,顯示SGA能確實㈲效㆞修正其相關參數,提

高整個模式的推估能力。實際案例訓練時,BPNN

在選擇㊜當的網路大小需以試誤法多次測試後

才能決定,造成使用㆖的費時與不便;反觀

RBFNN 則無此㆒問題,在以 OLS 結合線性迴歸

後,能快速決定㊜當之隱藏層大小,其使用之便

利性亦㊝於BPNN。

2. 以預測蘭陽溪㆘㆒時刻洪㈬量實際案例的研究

比較㆗可發現:RBFNN在訓練、驗證或測試階段

其評估指標皆㊝於BPNN,且 RBFNN在洪峰的位

移現象及整體流量推估誤差㆖皆較BPNN小。推

(a) BPNN 訓練

(b) RBFNN 訓練

(c) BPNN 測試

(d) RBFNN 測試

圖 16 ANN 推估值和實際值的關係圖

Page 13: 結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

( 37 )

估㆘㆓小時流量的結果顯示研究區域㈬文㈵性

因時空變化性大,RBFNN與 BPNN模式整體模擬

的結果較推估㆘㆒小時流量為差,但整個流量趨

勢仍然符合;而RBFNN的推估結果仍㊝於BPNN,

顯示在多時刻的推估㆖ RBFNN 仍㈲較佳的推估

能力。

3. 降雨-逕流為複雜之非線性關係,㆒般定率或序

率模式皆不易建構其間之關係,而RBFNN能以非

線性函數及線性方式組合成此㆒複雜之非線性

關係。再者,模式的推估能力與輸入向量維度㈲

密切的關係,若能參考流域實際情況的機制,如

㆖游各雨量站到㆘游流量站時間的影響對未來

多時刻的預測,相信能使RBFNN模式預測結果更

好。

㈥、謝 誌

本研究承蒙經濟部㈬利署的支持及經費補助

(計劃編號:MOEA/WRA/ST-930020),研究期間感謝

㈬利署㈬文技術組黃副組長㈪娟、曾科長鈞敏提供

㈾料與寶貴意見,第㆒河川局蔡局長萬宮、規劃課

李課長友平及其同仁的㈿助,在此㆒併致㆖謝忱。

參 考 文 獻

1. Chang F. J., Liang J. M. and Chen Y. C., 2001, Flood Forecasting Using Radial Basis Function Neural Network. IEEE Trans, pp.530-535.

2. Chang F. J., Chang L. C. and Huang H. L., 2002, Real Time Recurrent Learning Neural Network for Streamflow Forecasting. Hydrological Processes, pp. 2577-2588.

3. Chang, F. J. and Chen, Y. C., 2003, Estuary Water-Stage Forecasting by Using Radial Basis Function Neural Network. Journal of Hydrology, 270: 158-165.

4. Chen, S., Cowan, C. F. N. and Grant, P. M., 1991, Orthogonal Least Squares Learning Algorithm for Radial Basis Function Networks, IEEE Transactions on Neural Networks, 2(2): 302-309.

5. Chester, D. 1990. Why Two Hidden Layers are Better then One. In Proceeding. IEEE International Joint Conference on Neural Networks. Washington, DC. 265- 268.

6. Chiang, Y. M., Chang, L. C. and Chang, F. J., 2004, Comparison of Static-Feedforward and Dynamic- Feed- back Neural Networks for Rainfall–Runoff Modeling. Journal of Hydrology, 290: 297-311.

7. Dawson, C W. and Wilby, R. L. 2001. Hydrological

Modeling Using Artificial Neural Networks. Progress in Physical Geography. 25(1): 80-108.

8. Duda, R. and Hart, P., 1973, Pattern Classification and Scene Analysis. John Willy & Sons.

9. Fernando, D. A. K., and Jayawardena, A. W., 1998, Runoff forecasting using RBF networks with OLS algorithm. J. Hydrologic Eng., 3(3): 203-209.

10. Gorinevsky, D. and Vukovich, G., 1997, Control of Flexible Spacecraft Using Nonlinear Approximation of Input Shape Dependence on Reorientation Maneuver Parameters, Control Engineering Practice, 5(12): 1661- 1671.

11. Gorinevsky, D. and Vukovich, G., 1997, Control of Flexible Spacecraft Using Nonlinear Approximation of Input Shape Dependence on Reorientation Maneuver Parameters, Control Engineering Practice, 5(12): 1661- 1671.

12. Ham, K., 2001, Principles of Neurocomputing for Science & Engineering. McGRAW-HILL INTERNATION EDITION.

13. Hardy, R. L., 1971, Multiquadric Equations of Topography and Other Irregular Surfaces, Journal of Geophysical Research, 76: 1905-1915.

14. Hush, D. R. and Horne, B. G. 1993. Progress in Supervised Neural Networks: What’s New Since Lippmann. IEEE Signal Processing Magazine 10: 8-39.

15. Kecman, V, 2001, Learning and Soft Computing: Support Vector Machines, Neural Networks, and Fuzzy Logic Models, The MIT Press Cambridge, Massachusetts London, England.

16. Mason, J. C., Price, R. K., and Tem’me, A. 1996. A neural Network Model of Rainfall-Runoff Using Radial Basis Functions, J. Hydraul. Res. 537-548.

17. Mhaskar, H. N. 1996. Neural Networks for Optimal Approximation of Smooth and Analytic Functions. Neural Computation. 8: 1731-1742.

18. Moody, J. and Darken, C. J., 1989, Fast Learning in Networks of Locally-Tuned Processing Units. Neural Computation, 1(2): 281-294.

19. Niyogi, P. and Girosi, F. 1996. On the Relationship between Generalization Error, Hypothesis Complexity, and Sample Complexity for Radial Basis Functions. Neural Computation. 8: 819-842.

20. Pedrycz, W., 1998, Conditional Fuzzy Clustering in the Design of Radial Basis Function Neural Networks. IEEE Transactions on Neural Networks, 9(4): 601-612.

21. Poggio, R., and Girosi, F. 1990. Networks for Approxima- tion and Learning. Proceedings of the IEEE, 78(9): 1481- 1497.

22. Powell, M. J. D. 1987. Radial Basis Functions for Multivariable Interpolation: A Review. IMA Conference on Algorithms for Approximation of Functions and Data. RMCS, Shrivenham, England, 143-167.

Page 14: 結合OLS與SGA建構輻狀基底類 神經網路於洪㈬預測之研究 · 神經網路(bpnn)進行比較,結果顯示輻狀基底函數類神經網路比倒傳遞類神經網路之預

( 38 )

23. Seibert, J., 2001, On the Need for Benchmarks in Hydrological Modeling, Hydrological Processes. 15: 1063-1064.

24. Sudheer, K. P., Gosain, A. K., and Ramasatri, K. S., 2002, Comparisons between Back Propagation and Radial Basis Function Based Neural Networks in Rainfall- Runoff Modeling. Proc., Int. Conf. on Advances in Civil Engineering, Indian Institute of Technology, Kharagpur, India, 1: 449-456.

25. 梁晉銘,2002,複合型類神經網路建構集㈬區㈬文模

式之研究,國立台灣大㈻生物環境系統工程㈻系博士

論文。 26. 張斐章、張麗秋、黃浩倫,2003,類神經網路理論與

實務,東華書局。 27. 張斐章、梁晉銘,1999,類神經模糊推論模式在㈬文

系統之研究,臺灣㈬利,47(4): 1-12。 28. 張斐章、梁晉銘、陳彥璋、孫建平、黃源義,2000,

以輻狀基底函數網路建立降雨-逕流模式,臺灣㈬

利,Vol. 48,NO. 3,pp. 18-26。 收稿㈰期:民國 94 年 08 ㈪ 20 ㈰

修正㈰期:民國 94 年 10 ㈪ 14 ㈰

接受㈰期:民國 94 年 10 ㈪ 24 ㈰