《QCCNN量子类神经网路架构6938.docx》由会员分享,可在线阅读,更多相关《QCCNN量子类神经网路架构6938.docx(23页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、QCCNN量子類神經網路架構蔡賢亮義守大學資訊管管理系jimisu.eedu.tww劉榕軒義守大學資訊管管理系M93222020stmaiil.isuu.edu.tw摘要到目前為止,已已有各式各樣樣的量子類神神經網路模型型被提出了。但從研究中,我們發現到多數的模型只是個構想,並沒有提出明確而完整的量子學習法則;只有少數模型有提出量子學習法則,但是我們也發現到這些學習法則是不可行的,因為它們都不能真正的符合量子理論。而從目前已被提出的量子類神經網路的學習法則中,我們發現到Dan Ventura 和 Tony Martinez 提出的以量子搜尋演算法(quantum search algorith
2、m)為基礎的學習法則是最可行的(在論文中,我們將稱此學習法則為量子搜尋學習法則);但這個量子學習法則卻仍存在若干個缺陷,使得這個學習演算法仍有改進之處。為了解決量子搜搜尋學習法則則的缺陷,我我們提出一個個新的量子類類神經網路架架構,它結合合傳統的caascadee corrrelatiion 類神神經網路(CCNN)的自動建構概概念及量子搜搜尋學習法則則,我們稱這這個新量子類類神經網路架架構為量子ccascadde corrrelattion 類類神經網路(QCCNNN: quaantum cascaade coorrelaation neuraal nettwork)。這個新的的架構不但解解
3、決了如何決決定量子類神神經網路大小小的問題,也也可以減少量子子搜尋學習法法則在訓練過過程花費的時時間及空間。從從初步的實驗驗數據顯示,我我們提出的QQCCNN及及其新學習法法則確實更有有效率、更可可行。關鍵字:casscade correelatioon 類神經經網路、量子子類神經網路路、量子搜尋尋演算法、錯錯誤嘗試法。壹、引言傳統領域的類神神經網路(NNN, neeural netwoorks)發發展也已有一一甲子的歲月月了,由於它它具有若干著越越能力,使得得類神經網路路成為發展最快快速的研究領領域之一,而且它也已經經被大量地應用在相相當多的領域域上;但就目前的的電腦處理架架構而言,實實際上
4、,我們們並未把類神神經網路的平平行處理特性性發揮出來,我我們充其量只是在在模擬而已,所所以目前類神神經網路的實實際應用結果果乃大大地受受限於目前電電腦技術。而而超大型積體體電路的發展展也接近瓶頸頸,新的電腦腦架構(基因因電腦、分子子電腦及量子子電腦等)研研發將是勢在在必行,而量量子電腦(qquantuum commputerrs)便是一一個方向。如如果量子電腦腦在未來果真的的成為事實,那那目前科學界界上有若干難難解或不可能能解的問題都都將可能不再再是難題了(例例如,密碼問問題)!另外,量子電電腦的量子平行處處理能力對於於類神經網路路也將帶來革革命性的突破破,因為類神神經網路的平平行處理特性性得
5、以藉由量量子平行計算技術術而完全發揮揮。而以量子子理論為基礎的的類神經網路路則稱為量子子類神經網路路(QNN, quanntum nneurall netwworks)。到目前為止,已已有若干量子子類神經網路路模型被提出了了,但多數模模型都沒有提提出很明確的的方法來訓練練它們的量子類類神經網路,甚至有些模型根本沒有提及要如何去訓練量子類神經網路。例如,Altaisky在2001年提出的模型中,他曾提到使用類似傳統類神經網路的gradient descent學習法則來訓練量子類神經網路,然而,這個訓練法則是否符合量子理論呢?我們曉得其答案是否定的。目前已提出的量子類神經網路類似於傳統類神經網路的
6、論述有,其它的模型則與傳統類神經網路差異極大,例如,quantumdot 類神經網路。而這些被提出的量子類神經網路模型多數是不實用或跟本無法應用量子技術實做。但對於類神經網路而言,學習法則是它們的主要精髓之一,沒有可行的學習法則,它們便失去學習的能力,所以,量子類神經網路要能實現的話,那量子學習法則也是迫切需要的。而Dan Ventura 和 Tony Martinez在2000年首先提出將量子搜尋演算法(quantum search algorithm)應用在量子關連記憶學習上,利用量子搜尋演算法來訓練量子類神經網路。我們發現這是一個確實可行且合乎量子理論的量子學習法則。貳、量子搜尋學學習法
7、則傳統類神經網路路都是藉由調調整權重值來來達到學習的的目的,但是是這種方式似似乎是不適用用於量子類神神經網路;而而要訓練量子子類神經網路路的另一個可可行的方法是是從所有可能能的權重向量量集合中,找找出一組權重重向量能使所所有的訓練樣樣本能被正確地分類。在20000年,Dann Venttura 和和 Tonyy Marttinez 首先提出將將量子搜尋演演算法(quuantumm searrch allgoritthm)應用用在量子關連連記憶學習上上,利用量子子搜尋演算法法在量子關連連記憶學習上上。又在20003年,Riicks和VVenturra再次提出出利用量子搜搜尋演算法來來訓練量子類類
8、神經網路,並並且實驗証明明其方法的可可行性。這也是我們目前前發現最可行行的量子學習習法則。他們們利用量子搜搜尋演算法從從所有可能的的權重集合中中找出一組權權重,這組權權重需可以成功且且正確地分類類所有的訓練練樣本,而它它便是訓練完完成後所得到到的最後權重重。這個作法法的基礎想法法是利用量子子理論的狀態態線性疊加(llinearr supeerposiition)的的特性,將所所有可能的權權重向量疊加加在一起,然然後使用量子子搜尋演算法法從中尋求得得一組權重向向量,使得所所有的訓練樣樣本成功地被被分類。到目目前為止,量量子搜尋演算算法是少數已已被認定為合合乎量子計算算領域的演算算法之一,而以它它
9、為基礎的量量子搜尋學習習法則也完全全合乎量子理理論,所以,我我們認為這個個方法是可行行的。他們也成功地將將量子搜尋學學習法則應用用在若干的實實際問題上,例例如,他們已已經成功地利利用量子搜尋尋學習法則解解決了 XOOR 問題、iiris 分分類問題、llensess 分類問題題及 hayyes-rooth 問題題上。而且從從實驗的數據據上來看,這這個學習法則則是確實可行行的,而且效效能也是相當當不錯。由這這些實驗的數數據更證明了了量子搜尋學學習法則的可可行性。一、量子搜尋演演算法Grover在在1996年年提出量子搜搜尋演算法,它它是少數已被被認定為合乎乎量子計算領領域的演算法法之一。在N個未
10、排序過過的資料中搜搜尋出給定的的資料,若以傳統搜尋演演算法需要 次比較,而量量子搜尋演算算法 次比較。Grrover的的量子搜尋演演算法利用一個稱為quanttum orracle call黑盒子,和一一個稱為iinverssion aabout averaage量子子運算子,來逐步增大給給定資料的狀狀態被測量到到的機率。在在經過 次運算後,具有最高機率的資料便便是我們的搜搜尋目標。二、量子搜尋學學習法則的缺缺點雖然實驗的數據據更證明了量量子搜尋學習習法則的可行行性,但是我我們仍發現到量子子搜尋學習法法則有以下的的缺陷:第一,如果要符符合全部訓練練樣本要被成成功分類的 oraclle call
11、l,我們或或許可以找到到一組合適的的權重向量,但但這組權重向向量很可能並並不是我們需需要的,因為為它可能有過過渡訓練(ooverfiittingg)了。若訓訓練樣本集合合中含有若干干的錯誤樣本本,或訓練樣樣本含有雜訊訊時,過渡訓訓練的發生那那就勢必會發發生,因為我我們很可能需要一一個較大的量量子類神經網網路才有機會會將這些有問問題的訓練樣樣本百分之百百地分類成功功,而訓練完完的量子類神神經網路不僅僅記憶正確的的樣本,同時時也將錯誤的的樣本留在記記憶中,這對對分類未知樣樣本會造成極極嚴重的錯誤誤,所以讓全全數的訓練樣樣本百分之百百分類成功的的oraclle calll是很不恰恰當的。作者者Ric
12、kss和Venttura為了了解決這個缺缺陷,他們將將量子搜尋演演算法中的ooraclee calll做了些許的的修改,將ooraclee calll改為不再需需要全數訓練練樣本被正確確分類,而將將oraclle calll設定成訓訓練樣本正確確分類率低於於100%(例例如,95%)。這個修修改確實能解解決這個問題題,但是我們們很難決定ooraclee calll應該設多少少才適當。若oraccle caall設太高高的話,很可可能沒有任何何一組權重能能通過它,這這將造成每一一組權重都擁擁有相同的機機率,也就是是沒有一組權權重會超過00.5,所以以,搜尋失敗敗!另外,這這也可能造成成overf
13、fitting的的問題。第二,當量子搜搜尋學習法則則在尋找一組組權重向量時時,我們所需需花費的空間間複雜度(sspace compllexityy)是指數成成長的(例如如,若要搜尋尋n-bitts的資料空空間,則所需需的空間複雜雜度為),這對於較較複雜的問題題或架構較大大的量子類神神經網路將會會是不可行的的。作者也提出出了片斷權重重學習法則(ppiecewwise wweightt learrning rule)來改善此缺陷,它是以隨機選取某個神經元來訓練其權重(其它神經元的權重則凝結不動),所以每個神經元的權重分開獨立訓練,而不在將整個量子類神經網路的所有權重同時訓練。雖然這種方式可以降低空
14、間複雜度的問題,但它卻大大地拉長訓練的時間,因為它必需持續地隨機訓練單一個神經元的權重,直到整個量子類神經網路達到我們的要求為止。第三,不管是傳傳統或是量子子類神經網路路,當我們要要使用它們來來解問題時,我我們首先會遇遇到一個困難難,那就是究究竟要用多大大的類神經網網路才合適呢呢?這個問題題其實對於類類神經網路的的表現是影響響重大的,因因為太大的架架構通常會出出現overrfittiing的現象象。另外,對對於量子搜尋尋學習法則來來說,大的架架構也是需要要較多的訓練練時間及相當當龐大的空間間複雜度(如如第二點所述述),所以,太太大的類神經經網路架構是是不妥當的;然而,太小小的架構則會會有訓練不
15、足足或無法訓練練的現象產生生,它的訓練練過程可能都都無法收斂,所所以訓練程序序是無法結束束,只能靠人人為中止它,另另外,這樣的的類神經網路路的分類品質質必定也不高高,所以,小小架構的類神神經網路也是是不妥當的。在他們的實驗中中,他們顯示示出他們的量量子搜尋學習習法則的效能能,但他們卻卻沒有告訴我我們,實驗中中所採用的類類神經網路大大小是如何制制定的。其實實,我們可以以很容易地猜猜測到,他們們應該是採用用傳統類神經經網路中的錯錯誤嘗試法(ttrial-and-eerror)來來找出一個合合適的量子類類神經網路,這這種作法是不不可行的,因因為這種做法法使得他們將將花更多的訓訓練時間及空空間。雖然量
16、子搜尋學學習法則仍有有上述的缺點點存在,不過過這個方法還還是目前被提提出的量子類類神經學習法法則中是較可可行的,其實實有些缺點也也同樣存在於於傳統的類神神經網路,而而且已經成功功地被解決了了,例如,類類神經網路架架構問題就有有若干的演算算法被提出,而而我們也針對對這個問題做做了不少的研研究,提出一一系列的方法法來讓類神經經網路自動建建構合適的類類神經網路架架構,並且獲獲得相當不錯錯的成果。所所以,我們或或許也可以將將傳統的解決決方法應用到到量子類神經經網路中,並並解決上述的的缺點。從這這些已被提出出的傳統類神神經網路演算算法中,我們們發現傳統的的cascaade coorrelaation 類
17、神經網路路(CCNNN)有很多不不錯的特性,它它成功的解決決了不少傳統統類神經網路路的問題,而而某些相同的的問題也同樣樣困擾著量子子類神經網路路,而且從它它的若干特性性中,我們發發現這些特性性可以應用到到量子類神經經網路上。參、Cascaade Coorrelaation類類神經網路(CCCNN)以下我們對caascadee corrrelatiion 類神神經網路做些些簡略的介紹紹,並說明他他的那些特性性可以解決那那些量子搜尋尋學習法則存存在的缺陷。傳統類神經網路路 casccade ccorrellationn 類神經網網路是自動建建構類神經網網路架構的演演算法之一,也也具有令人稱稱讚的效
18、能,它的效能也也遠遠優於傳傳統的倒傳遞遞類神經網路路(backk-propaagatioon neuural nnetworrks),是是一個相當有有效率的類神神經網路架構構。它不像倒傳傳遞類神經網網路是同時訓訓練整個類神經網網路的權重值值,它是可以以依需求自動動地動態建構構出多階層(mmultillayer)的的類神經網路路,所以它比倒傳遞類神經經網路具有快快速的學習速速率,它可以以自己決定自自己的網路大大小及架構,而且當訓練樣本集合改變時,它不需重新再建構一個全新的網路架構,它可以以先前的網路架構為基礎,再繼續增建已訓練過的類神經網路架構。CCNN 類神神經網路在尚尚未訓練時,它它只包含輸
19、入入層及輸出層層,而經由訓訓練的過程,它它會依需要自自動地加入新新的隱藏神經經元,直到訓訓練樣本的成成功分類率達達到我們的要要求為止。新新的隱藏神經經元加入的方方法是一個一一個依序加入入的,而且它它每次只需訓訓練要加入的的隱藏神經元元(hiddden neeuronss),而其它它已存在之神神經元及其所所屬之權重則則被凍結不變變,所以 CCCNN 類類神經網路是是可以解決量量子搜尋學習習法則的第二二及第三個缺缺點。由於CCCNN是一一次只訓練一一個隱藏神經經元的權重,所所以,每訓練練一個隱藏神神經元的所有有可能權重集集合會遠少於於整個量子類類神經網路的的所有權重集集合,所以,我我們可以大大大減
20、少所需的的訓練空間複複雜度。而我我們只要再對對 CCNNN 類神經網網路的自動建建構演算法做做些修改的話話,我們也可可以將量子搜搜尋學習法則則的第一個缺缺點也減到最最低的程度。CCNN 類神神經網路的學學習法則是兩兩階段式的,第第一個階段,是是調整輸出層層與所有隱藏藏層及輸入層層之間的權重重向量,藉由由訓練的過程程,可以慢慢慢地降低錯誤誤函式的值,而而當錯誤值變變化量小於某某一預設門檻檻時,也就是是訓練趨近於於穩定時,此此一個階段學學習程序便中中止,並判斷斷訓練樣本被被正確辨識的的準確率是否否達到我們的的要求,若是是,則結束整整個學習程序序,整個類神神經網路便建建構完成了;否則,便加加入一個新
21、的的隱藏神經元元,並進入第第二學習階段段。這一階段段的學習程序序是要調整此此新加入隱藏藏神經元與輸輸入層及所有有已存在之隱隱藏神經元之之間的權重向向量,經由訓訓練的過程,可可以慢慢地提提升此新神經經元輸出值與與輸出層的錯錯誤值的相關關值(corrrelattion)。此此相闗值愈大大則代表此新新加入的隱藏藏神經元可以以更降低錯誤誤值。同樣地地,當相關值值增加緩慢時時,第二階段段學習程序便便中止,並且且把此隱藏神神經元的權重重凍結。然後後便重回第一一階段重複執執行。這兩個個學習階段會會被重複地執執行,直到訓訓練樣本的成成功辨識率達達到要求為止止。肆、QCCNNN量子類神經經網路架構那要如何讓CC
22、CNN的自動動建構特性融融合Bob Rickss 和 Daan Venntura 提出的量子搜尋學習習法則呢?我們利用用二者的特性性來建立量子子類神經網路路自動建構演演算法,它具具有CCNNN的自動建構特特性,也擁有有Bob RRicks 和 Dann Venttura 提提出的量子搜搜尋學習法則則。用這種方方式建構出來來的量子類神神經網路,我我們稱它為qquantuum casscade correelatioon類神經網網路,簡稱為為QCCNNN。QCCNNN演算法如表表一所示。QQCCNN類類神經網路建建構過程如圖圖一所示。QCCNN 類類神經網路在在尚未訓練之之初,它也同同樣是只有輸輸
23、入神經層和和輸出神經層層。在第一個個階段中,我我們是調整輸輸出層與所有有隱藏層及輸輸入層之間的的權重向量,藉藉由量子搜尋尋學習演算法法的訓練過程程,我們可以以快速地找到到一組權重向向量,並使錯錯誤值為最小小,所以第一一階段便結束束;接下來,我我們要判斷訓訓練樣本被正正確辨識的準準確率是否達達到要求,若若是,則結束束整個學習程程序,量子類類神經網路便便建構完成了了;否則,便便加入一個新新的隱藏量子子神經元,並並進入第二學學習階段。這這一階段的學學習程序是要要調整此新加加入隱藏量子子神經元與輸輸入層及所有有已存在之隱隱藏量子神經經元之間的權權重向量。同同樣地,我們們是採用量子子搜尋的技巧巧來調整權
24、重重向量,並可可以很快地找找到一組權重重值,使此新新神經元輸出出值與輸出層層的錯誤值的的相關值為最最大,第二階階段學習程序序便中止,並並且把此新加加入的隱藏量量子神經元的的權重凍結。然然後便重回第第一階段重複複執行。這兩兩個學習階段段會被重複地地執行,直到到訓練樣本的的成功辨識率率達到要求為為止。每執行行第二階段學學習程序一次次便代表新增增一個隱藏量量子神經元,換換句話說,第第二階段學習習程式重複執執行的次數便便代表隱藏量量子神經元的的個數。我們的QCCNNN架構中,由由於學習法則則是兩階段的的,所以我們們也需要有二二個不同性質質的oraccle,這兩兩個oraccle各負責責不同的任務務,所
25、要逹到到的目標也不不相同。在第第一階段中,我我們是希望經經由量子搜尋尋技巧找到介介於輸出層和和其它層間的的權重向量,而而這組權重向向量能使得訓訓練樣本的正正確辨識率最最高,換句話話說,就是使使得輸出層的的錯誤值最低低;而在第二二階段中,我我們會新增一一個隱藏量子子神經元至量量子類神經網網路中,並希希望同樣經由由量子搜尋技技術找到新隱隱藏量子神經經元的權重向向量,這組權權重向量可以以使得新神經經元的輸出值值和輸出層的的錯誤值產生生最大的相關關;如果二者者間的關連愈愈大,那代表表這個新加入入的神經元可可以使得輸出出層的錯誤可可以降得更低低。表一 QCCNNN演算法Algoritthm QCCCNN
26、Learninng phaase: S1: BBegin with the mminimaal nettwork with no hiidden neuroonsFirst pphase: Traiining outpuut neuurons S2: TTrainiing Weeightss, , of ooutputt neurrons bby quaantum searcch leaaning rule with oraclle calll (1) where , , annd arre thee erroor, thhe dessired outpuut vallue, aand acc
27、tual outpuut vallue off outpput neeuron o forr traiining patteern p, resppectivvely. S3: IIf thhen sttop, wwhere is tthe peercenttage oof succcessfful cllassifficatiion foor traainingg pattterns and is a stop criteerion for llearniing phhase.Second phasee: Traainingg a neew hiddden nneuronn S4: TTra
28、iniing weeightss, of aa new hiddeen neuuron bby quaantum searcch leaarningg rulee withh oraccle caall (2) wheere iis thee outpput vaalue oof thiis neww hiddden neeuron for ttrainiing paatternn p. S5: AAdd thhe sellectedd hiddden neeuron to thhe nettwork, thenn gotoo S2.Classifficatiion phhase:For an
29、 unknoown paatternn X, iit is classsifiedd to iinto cclass c,where 另外,我們也只只要再對 CCCNN 類類神經網路做做些修改的話話,就可以將將原量子搜尋尋學習法則的的第一及第二二缺點也減到到最低的程度度,使得ovverfittting的的機會減少,也也可以減少量量子搜尋找不不到符合orracle及及同時有二個個或二個以上上狀態符合ooraclee的可能性。這這是相當重要要的改良,因因為量子搜尋尋演算法中,若若同時有二個個或二個以上上的狀態同時時符合oraacle的話話,那麼量子子搜尋演算法法是會失敗的的;若找不到到任何一個能能
30、符合oraacle的狀狀態的話,那那麼它便表示示搜尋失敗,所所有狀態的機機率會保持相相同,所以我我們無從得到到解答,也可可以說是失敗敗!原量子搜搜尋學習法則則只要上述兩兩個其中一個個情況成立時時,它便無法法訓練類神經經網路,那麼麼就需要視情情修改類神經經網路的大小小,然後再重重新訓練類神神經網路,直直到找到一個個類神經網路路架構只含唯唯一一組權重重向量符合ooraclee為止。事實實上,他們的的方法是非常常不實際的,但但我們則加入入CCNN的的概念並修改改oraclle的定義來來解決它!由於我們的學習習法則不同於於原作者所提提出的方法,以以及我們的方方法是可以自自動建構類神神經網路,而而且一次
31、只新新增一個隱藏藏量子神經元元,所以在建建構出的類神神經網路架構構是完全不同同於原方法的的。我們的類類神經網路,每每個隱藏層只只會含有一個個隱藏神經元元。伍、實驗結果我們同樣以XOOR 問題、iiris 分分類問題、llensess 分類問題題及 hayyesrotth 問題為為例,我們的的方法需要很很少的訓練時時間及空間,而而且,它可以以自動地建構構量子類神經經網路,不需需使用者去決決定!而在辨辨識效果上,二二者則相差不不遠。從目前前已完成的初初步實驗結果果中,我們可可以看出我們們的方法確實實比原量子搜搜尋學習法則則要來得更有有效率、更可可行。陸、研究探討與與未來工作為了解決Bobb Ric
32、kks 和 DDan Veenturaa的量子搜尋尋學習法則的的缺陷,我們們將傳統的ccascadde corrrelattion 類類神經網路的的概念加入至至量子搜尋學學習法則中。這這個改良解決決了量子類神神經網路大小小的問題,也也解決了若干干量子搜尋學學習法則的缺缺點。從目前前的實驗數據據顯示,我們們的新學習法法則比原量子子搜尋學習法法則更有效率率、更可行。然而,我們的方方法仍有改進進的地方。由由於我們的學學習法則是結結合CCNNN與量子搜尋尋演算法,所所以愈上層的的神經元擁有有的神經連結結數目也愈多多,這也是會會造成很嚴重重的問題;另另外若樣本的的特徵維度很很大時,也是是會有可行性性上的
33、問題,所所以,我們還還在繼續相關關的研究,希希望能找出更更可行的量子子類神經網路路模型及其學學習法則。圖一 QCCNNN類神經網網路建構過程程Wnew hiddenneuronnew hiddenneuronwwWinput neuronsoutput neurons(a)(b)W(c)(d)(e)weights under trainingfrozen weights柒、致謝本論文呈蒙國科科會計畫NSSC94-22213-EE-214-007-經經費補助,特特此致謝。捌、參考文獻B. Rickks andd D. VVenturra, Trraininng a QQuantuum Neuur
34、al NNetworrk, Neeural Inforrmatioon Proocessiing Syystemss, pp. , Deecembeer 20003.Alexanddr Ezhhov annd Dann Venttura, Quanntum NNeurall Netwworks, in Futurre Dirrectioons foor Inttelliggent SSystemms andd Infoormatiion Scciencee (Ed. N. KKasaboov), PPhysicca-Verrlag, 2000.Dan Venntura and TTony MM
35、artinnez, Quanttum Asssociaative Memorry, Infoormatiion Scciencees, vool. 1224 noss. 1-44, pp. 273-296, 2000.L. K. GGroverr, A ffast QQuantuum mecchaniccal allgoritthm foor dattabasee searrch, iin Prooceediings oof thee 28thh ACM STOC, pp. 212-2219, 11996.L. K. GGroverr, Quaantum mechaanics helpss i
36、n ssearchhing ffor a needlle in a hayystackk, in Physiical RRevieww Lettters, Vol. 78, ppp. 3225-3288, 19997.L. Fei and ZZ. Baooyu, AA studdy of Quanttum Neeural Netwoorks, in IEEEE innternaationaal connferennce off Neurral Neetworkks & SSignall Proccessinng, ppp. 5399-542, 20033.S. E. FFahlmaan and
37、d C. LLebierre. “The cascaade-coorrelaation learnning aarchittecturre,”Techhnicall Repoort CMMU-CS-90-1000, Schoool of Compuuter SSciencce, Carnnegie Melloon Univeersityy, 1990.S. E. FFahlmaan andd C. LLebierre. “TThe caascadee-corrrelatiion leearninng arcchiteccture,”In AAdvancces inn Neurral Innfo
38、rmaation Proceessingg Systtems, D. S. Toouuretzkky, Edd., Saan Matteo, CCA: Moorgan Kaufmmann, 2:5244-5322, 19990.S.-J. LLee annd M.-T. Joone. “AAn exttendedd procceduree of cconstrructinng neuural nnetworrks foor suppervissed diichotoomy.”IIEEE TTransaactionns on Systeems, MMan, aand Cyyberneetics
39、- Paart B: Cybeernetiics, 226(4):660-665, 1996.S.-J. LLee, MM.-T. Jone, H.-LL. Tsaai. “CConstrructinng neuural nnetworrks foor mullti-cllass ddescreetizattion bbased on innformaation entroopy.”IIEEE TTransaactionns on Systeems, MMan, aand Cyyberneetics - Paart B: Cybeernetiics, 229(3):445-453, 1999.
40、H.-L. TTsai aand S.-J. LLee, Consttructiion off Neurral Neetworkks on Struccturedd Domaains, Procceedinngs off 9th Interrnatioonal CConferrence on Neeural Inforrmatioon Proocessiing, 11:50-554, Siingapoore, 22002.H.-L. TTsai aand S.-J. LLee, “EEntroppy-bassed geenerattion oof suppervissed neeural ne
41、twoorks ffor cllassifficatiion off struuctureed pattternss, “IEEEE Trransacctionss on NNeurall Netwworks, 15(22):2833-297,2004.M. A. NNielseen andd I. LL. Chuuang, Quanttum coomputaation and qquantuum infformattion, Cambrridge Univeersityy Presss, 20000.T. Pelllizzarri, S. A. GGardinner, JJ. I. Cira
42、cc and P. Zooller, Physsical Revieew Lettter, 75, 33788-33791 (1995) Deecoherrence, Conttinuouus Obsservattion, and QQuantuum Commputinng: A Cavitty QEDD Modeel.P. W. SShor, Physiical RRevieww A, 552, 24493-24496 (11995) Scheeme foor Redducingg Decooherennce inn Quanntum CComputter Meemory.E. Behrrm
43、an, L. Naash, JJ. Steeck, VV. Chaandrasshekarr, andd S. SSkinneer, Siimulattions of Quuantumm Neurral neetworkks, Innformaation Sciennces, 128(33-4):2257-2669, Occtoberr 20000.E. Behrrman, J. Niiemel, and J. Stteck, A Quaantum Dot NNeurall Netwwork, Technnical reporrt, wwww.enggr.twssu.eduu/me/ffacultty/steeck/puubs/ieeeenn996.ps, 19966.S. Guptta andd R. ZZia, QQuantuum Neuural NNetworrks, TTechniical rreportt, htttp:/wwww.arrxiv.oorg/PSS_cachhe/quaant-phh/pdf/0201/02011144.pddf, 20002.T. Mennneer, Quanttum Arrtificcial NNeurall Netwworks, PhD thesiis, Unniverssity oof Exeeter, 1998.
限制150内