The present invention relates to a gradient descent method and the generalized inverse of the complex valued neural network training method based on step one, choose a single hidden layer complex valued neural network model; step two, by using the gradient descent method and generalized inverse calculation of single hidden layer complex valued neural network and the weight matrix and weight vector, step three, according to the weight matrix and weight vector, obtain the complex valued neural network parameters, calculate the mean square error; and the number of iterations will be 1, return to step two. The input weight of the hidden layer is generated iteratively by the gradient descent method, and the output weights are always solved by generalized inverse. This method has fewer iterations, shorter training time, faster convergence speed and higher learning efficiency. Meanwhile, the required number of hidden nodes is less. Therefore, the invention can accurately reflect the performance of the complex valued neural network model than the BSCBP method and the CELM method.
【技術實現步驟摘要】
基于梯度下降法與廣義逆的復值神經網絡訓練方法
本專利技術屬于圖像處理、模式識別和通信傳輸的
,尤其涉及一種基于梯度下降法與廣義逆的復值神經網絡訓練方法。
技術介紹
在圖像處理、模式識別和通信傳輸等方面利用神經網絡建模的方法進行樣本訓練與測試有廣泛的應用。在訓練樣本中的神經網絡模型建模,神經網絡信號(輸入信號和輸出信號以及權值參數),可以為實數值和復數值,從而神經網絡分為實值神經網絡和復值神經網絡。現有的神經網絡建模方法多數是建立的實值神經網絡模型,但隨著電子信息科學的迅速發展,復數值信號越來越頻繁地出現在工程實踐中,僅考慮實值的計算無法良好的解決實際問題,而復值神經網絡可以解決一些實值神經網絡所解決不了的問題。復值神經網絡是通過復數參數和變量(即信號的輸入、輸出以及網絡權值均為復數)來處理復數信息的神經網絡。因此,一系列復值神經網絡的模型被陸續提出并加以深入研究。在BatchSplit-ComplexBackpropagationAlgorithm中提出了一種BSCBP方法用于訓練復值神經網絡。激活函數選擇實虛部型激活函數,對隱層輸入的實虛部分別激活,避免奇異點的出現;BSCBP方法先給輸入權值矩陣以及輸出權值矩陣進行隨機賦值,再通過梯度下降法進行梯度更新,最后計算測試樣本的精度。但是,基于梯度下降法的BSCBP模型需要多次迭代訓練,消耗時間長并且學習效率較低。在FullyComplexExtremeLearningMachine中提出了一種CELM方法將ELM方法從實數域擴展到復數域,并應用于非線性信道均衡。CELM只需要設置合適的網絡隱層節點個數 ...
【技術保護點】
一種基于梯度下降法與廣義逆的復值神經網絡訓練方法,其特征是:所述方法步驟包括:(1)選擇單隱層復值神經網絡模型對樣本數據集進行建模;(2)根據步驟(1)中選擇的單隱層復值神經網絡模型,利用廣義逆計算所述單隱層復值神經網絡中的權值矩陣,將迭代次數初始值設置為1,利用梯度下降法計算所述單隱層復值神經網絡中的權值向量;(3)根據步驟(2)中計算出的所述權值矩陣和所述權值向量,獲取復值神經網絡網絡參數,計算當前樣本數據的均方誤差;判斷當前迭代次數是否等于最大迭代次數,若是,結束訓練;若否,將當前迭代次數加1,返回步驟(2)。
【技術特征摘要】
1.一種基于梯度下降法與廣義逆的復值神經網絡訓練方法,其特征是:所述方法步驟包括:(1)選擇單隱層復值神經網絡模型對樣本數據集進行建模;(2)根據步驟(1)中選擇的單隱層復值神經網絡模型,利用廣義逆計算所述單隱層復值神經網絡中的權值矩陣,將迭代次數初始值設置為1,利用梯度下降法計算所述單隱層復值神經網絡中的權值向量;(3)根據步驟(2)中計算出的所述權值矩陣和所述權值向量,獲取復值神經網絡網絡參數,計算當前樣本數據的均方誤差;判斷當前迭代次數是否等于最大迭代次數,若是,結束訓練;若否,將當前迭代次數加1,返回步驟(2)。2.如權利要求1所述的一種基于梯度下降法與廣義逆的復值神經網絡訓練方法,其特征是:所述步驟(1)中的所述單隱層復值神經網絡模型為:所述單隱層復值神經網絡模型中的輸入層、隱層和輸出層神經元個數分別為L、M和1;給定Q個輸入樣本;其樣本矩陣為Z=(zij)L×Q、輸入樣本相應的理想輸出矩陣為D=(d1,d2…dQ)T均為復數;第q個樣本的輸入為其中,i=1,2…L;第q個樣本的理想輸出為dq∈C。3.如權利要求2所述的一種基于梯度下降法與廣義逆的復值神經網絡訓練方法,其特征是:所述步驟(1)中的所述單隱層復值神經網絡模型中的所述隱層的激活函數為gc:C→C;連接輸入層和隱層的權值矩陣為W=(wij)M×L=WR+iWI,其中,WR為W的實部,WI為W的虛部;輸入層與第i個隱節點的連接權值記為wi=(wi1,wi2…wiL)∈CL,其中,i=1,2…M;連接隱層和輸出層的權值向量為V=(v1,v2…vM)T=VR+iVI,其中,VR為V的實部,VI為V的虛部;第k個隱節點與輸出層的連接權值記為vk∈C,其中,k=1,2…M。4.如權利要求3所述的一種基于梯度下降法與廣義逆的復值神經網絡訓練方法,其特征是:所述步驟(2)中的具體步驟為:(2-1)初始化輸入層到隱層的權值矩陣,獲取初始權值矩陣W0,W0在給定區間內隨機賦值;(2-2)利用梯度下降法和廣義逆計算單隱層復值神經網絡中的權值矩陣和權值向量。5.如權利要求4所述的一種基于梯度下降法與廣義逆的復值神經網絡訓練方法,其特征是:所述步驟(2-2)中的所述通過廣義逆計算隱層到輸出層的權值矩陣V的具體步驟為:(2-2a-1)根據步驟(2-1)中的所述初始權值矩陣W0與步驟(1)中的樣本矩陣Z計算隱層的輸入矩陣U=(uij)M×Q,(2-2a-2)對矩陣步驟(2-2a-...
【專利技術屬性】
技術研發人員:桑兆陽,劉芹,龔曉玲,張華清,陳華,王健,
申請(專利權)人:中國石油大學華東,
類型:發明
國別省市:山東,37
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。