千文網(wǎng)小編為你整理了多篇相關(guān)的《模式識別課程報(bào)告(大全)》,但愿對你工作學(xué)習(xí)有幫助,當(dāng)然你在千文網(wǎng)還可以找到更多《模式識別課程報(bào)告(大全)》。
第一篇:模式識別報(bào)告格式
模式識別報(bào)告格式
一、封皮的填寫:實(shí)驗(yàn)課程名稱 模式識別
二、實(shí)驗(yàn)名稱:按順序填寫圖像的貝葉斯分類、K均值聚類算法、神經(jīng)網(wǎng)絡(luò)模式識別
三、年月:2013年4月
四、紙張要求:統(tǒng)一采用A4大小紙張,左側(cè)裝訂,裝訂順序與實(shí)驗(yàn)順序一致。
五、書寫要求:
1、報(bào)告可以手寫也可以打印。
2、實(shí)驗(yàn)圖像及結(jié)果圖像打印,圖像均位于實(shí)驗(yàn)結(jié)果與分析部分,圖像打印于紙張上部,下部為實(shí)驗(yàn)分析。
3、報(bào)告中圖要有圖序及名稱,表要有表序及名稱,每個實(shí)驗(yàn)的圖序和表序單獨(dú)標(biāo)號,具體格式參照畢業(yè)設(shè)計(jì)手冊。不合格者扣除相應(yīng)分?jǐn)?shù)。
4、每個實(shí)驗(yàn)均需另起一頁書寫。
六、關(guān)于雷同報(bào)告:報(bào)告上交后,如有雷同,則課程考核以不及格處理,不再另行通知修改。
實(shí)驗(yàn)
一、圖像的貝葉斯分類
一、實(shí)驗(yàn)?zāi)康膶⒛J阶R別方法與圖像處理技術(shù)相結(jié)合,掌握利用最小錯分概率貝葉斯分類器進(jìn)行圖像分類的基本方法,通過實(shí)驗(yàn)加深對基本概念的理解。
二、實(shí)驗(yàn)儀器設(shè)備及軟件
HP D538、MATLAB
三、實(shí)驗(yàn)原理
以自己的語言結(jié)合課堂筆記進(jìn)行總結(jié),要求過程推導(dǎo)清晰明了。
四、實(shí)驗(yàn)步驟及程序
實(shí)驗(yàn)步驟、程序流程、實(shí)驗(yàn)源程序齊全。
五、實(shí)驗(yàn)結(jié)果與分析
要求寫明實(shí)驗(yàn)得到的分割閾值,附分割效果圖。對實(shí)驗(yàn)結(jié)果進(jìn)行分析,說明實(shí)驗(yàn)結(jié)果好或者不好的原因,提出改進(jìn)措施。
(另起一頁)
實(shí)驗(yàn)
二、K均值聚類算法
一、實(shí)驗(yàn)?zāi)康膶⒛J阶R別方法與圖像處理技術(shù)相結(jié)合,掌握利用K均值聚類算法進(jìn)行圖像分類的基本方法,通過實(shí)驗(yàn)加深對基本概念的理解。
二、實(shí)驗(yàn)儀器設(shè)備及軟件
HP D538、MATLAB、WIT
三、實(shí)驗(yàn)原理
以自己的語言結(jié)合課堂筆記進(jìn)行總結(jié),要求過程推導(dǎo)清晰明了。
四、實(shí)驗(yàn)步驟及程序
實(shí)驗(yàn)步驟、程序流程、MATLAB及WIT實(shí)驗(yàn)源程序齊全,WIT聚類程序可以圖像形式
附于報(bào)告上。
五、實(shí)驗(yàn)結(jié)果與分析
以MATLAB和WIT分別實(shí)現(xiàn)K均值圖像聚類算法,寫明聚類類別數(shù)、聚類中心、迭代次數(shù)、運(yùn)行時間,附原始圖像和分類結(jié)果圖像,并做實(shí)驗(yàn)分析。
(另起一頁)
實(shí)驗(yàn)
三、神經(jīng)網(wǎng)絡(luò)模式識別
一、實(shí)驗(yàn)?zāi)康恼莆绽酶兄骱虰P網(wǎng)進(jìn)行模式識別的基本方法,通過實(shí)驗(yàn)加深對基本概念的理解。
二、實(shí)驗(yàn)儀器設(shè)備及軟件
HP D538、MATLAB
三、實(shí)驗(yàn)原理
以自己的語言結(jié)合課堂筆記及相關(guān)資料進(jìn)行總結(jié),要求過程推導(dǎo)清晰明了。
四、實(shí)驗(yàn)步驟及程序
感知器實(shí)驗(yàn):
1、設(shè)計(jì)線性可分實(shí)驗(yàn),要求訓(xùn)練樣本10個以上
2、奇異樣本對網(wǎng)絡(luò)訓(xùn)練的影響
3、以線性不可分樣本集訓(xùn)練分類器
BP網(wǎng)實(shí)驗(yàn):利用BP網(wǎng)對上述線性不可分樣本集進(jìn)行分類
五、實(shí)驗(yàn)結(jié)果與分析
寫明迭代次數(shù)、訓(xùn)練時間,附分類界面效果圖,并討論奇異樣本對分類器訓(xùn)練的影響。
第二篇:模式識別課程報(bào)告
模式識別文獻(xiàn)綜述報(bào)告
一,文獻(xiàn)綜述報(bào)告
閱讀至少5篇論文(最好包含1篇英文論文;自己去學(xué)校電子圖書館下載,考慮中國知網(wǎng);IEEE,Elsevier等數(shù)據(jù)庫),寫一篇文獻(xiàn)綜述報(bào)告。
1.選題不限,可以是任何一種模式識別算法(例如k-means,kNN,bayes,SVM,PCA,LDA等),閱讀所選題方面的相關(guān)文獻(xiàn)(論文都是關(guān)于一個主題的,例如都是svm算法方面的)。
2.寫一份文獻(xiàn)綜述報(bào)告,包括:每篇論文主要使用什么算法實(shí)現(xiàn)什么,論文有沒有對算法做出改進(jìn)(為什么改進(jìn),原算法存在什么問題,改進(jìn)方法是什么),論文中做了什么對比試驗(yàn),實(shí)驗(yàn)結(jié)論是什么?注意,盡量用自己的話總結(jié),不要照抄原文??梢约尤胱约旱姆治龊拖敕ǎ邕@篇論文還存在什么問題或者缺點(diǎn),這篇論文所作出的改進(jìn)策略是否好,你自己對算法有沒有什么改進(jìn)的想法?
3.把閱讀的參考文獻(xiàn)寫在報(bào)告后面。(包括:作者;論文名稱;期刊名稱;出版年,卷號(期號),頁碼。例如:[1] 趙銀娣,張良培,李平湘,一種紋理特征融合分類算法,武漢大學(xué)學(xué)報(bào),信息科學(xué)版,2006,31(3):278-281.)
二、寫一下學(xué)習(xí)這門課的心得體會(占分?jǐn)?shù))。
學(xué)習(xí)這門課有什么收獲?老師在教學(xué)中還應(yīng)該加入些什么教學(xué)內(nèi)容?或者有哪些教學(xué)內(nèi)容需要刪減?需要調(diào)整?對于作業(yè)(上機(jī)實(shí)驗(yàn))內(nèi)容有什么意見和建議?目前內(nèi)容過多過難還是適中?你希望出什么樣的上機(jī)題目(可以得到好的鍛煉和能力的提高)?完成作業(yè)過程中有什么收獲和體會?有沒有對模式識別或者某種模式識別的算法比較感興趣?有什么想法?
第三篇:模式識別總結(jié)
監(jiān)督學(xué)習(xí)與非監(jiān)督學(xué)習(xí)的區(qū)別:
監(jiān)督學(xué)習(xí)方法用來對數(shù)據(jù)實(shí)現(xiàn)分類,分類規(guī)則通過訓(xùn)練獲得。該訓(xùn)練集由帶分類號的數(shù)據(jù)集組成,因此監(jiān)督學(xué)習(xí)方法的訓(xùn)練過程是離線的。
非監(jiān)督學(xué)習(xí)方法不需要單獨(dú)的離線訓(xùn)練過程,也沒有帶分類號(標(biāo)號)的訓(xùn)練數(shù)據(jù)集,一般用來對數(shù)據(jù)集進(jìn)行分析,如聚類,確定其分布的主分量等。
(實(shí)例:道路圖)就道路圖像的分割而言,監(jiān)督學(xué)習(xí)方法則先在訓(xùn)練用圖像中獲取道路象素與非道路象素集,進(jìn)行分類器設(shè)計(jì),然后用所設(shè)計(jì)的分類器對道路圖像進(jìn)行分割。
使用非監(jiān)督學(xué)習(xí)方法,則依據(jù)道路路面象素與非道路象素之間的聚類分析進(jìn)行聚類運(yùn)算,以實(shí)現(xiàn)道路圖像的分割。
1、寫出K-均值聚類算法的基本步驟, 算法:
第一步:選K個初始聚類中心,z1(1),z2(1),…,zK(1),其中括號內(nèi)的序號為尋找聚類中心的迭代運(yùn)算的次序號。聚類中心的向量值可任意設(shè)定,例如可選開始的K個模式樣本的向量值作為初始聚類中心。第二步:逐個將需分類的模式樣本{x}按最小距離準(zhǔn)則分配給K個聚類中心中的某一個zj(1)。假設(shè)i=j時,Dj(k)?min{x?zi(k),i?1,2,?K},則x?Sj(k),其中k為迭代運(yùn)算的次序號,第一次迭代k=1,Sj表示第j個聚類,其聚類中心為zj。第三步:計(jì)算各個聚類中心的新的向量值,zj(k+1),j=1,2,…,K zj(k?1)?1Njx?Sj(k)?x,j?1,2,?,K 求各聚類域中所包含樣本的均值向量:
其中Nj為第j個聚類域Sj中所包含的樣本個數(shù)。以均值向量作為新的聚類中心,Jj?x?Sj(k)?x?zj(k?1),2j?1,2,?,K可使如下聚類準(zhǔn)則函數(shù)最?。?/p>
在這一步中要分別計(jì)算K個聚類中的樣本均值向量,所以稱之為K-均值算法。第四步:若zj(k若zj(k ?1)?zj(k),j=1,2,…,K,則返回第二步,將模式樣本逐個重新分類,重復(fù)迭代運(yùn)算;
?1)?zj(k),j=1,2,…,K,則算法收斂,計(jì)算結(jié)束。
T線性分類器三種最優(yōu)準(zhǔn)則:
wSFisher準(zhǔn)則:maxJ(w)?wSwFTbwww.xiexiebang.com>>n)的條件下,可以使用分支定界法以減少計(jì)
m算量。
15、散度Jij越大,說明?i類模式與?j類模式的分布(差別越大);當(dāng)?i類模式與?j類模式的分布相同時,Jij=(0)。
16、影響聚類算法結(jié)果的主要因素有(②分類準(zhǔn)則 ③特征選取 ④模式相似性測度。)。
19、模式識別中,馬式距離較之于歐式距離的優(yōu)點(diǎn)是(③尺度不變性 ④考慮了模式的分布)。20、基于二次準(zhǔn)則函數(shù)的H-K算法較之于感知器算法的優(yōu)點(diǎn)是(①可以判別問題是否線性可分 ③其解的適應(yīng)性更好)。
21、影響基本C均值算法的主要因素有(④初始類心的選取 ①樣本輸入順序 ②模式相似性測度)。
22、位勢函數(shù)法的積累勢函數(shù)K(x)的作用相當(dāng)于Bayes判決中的(②后驗(yàn)概率 ④類概率密度與先驗(yàn)概率的乘積)。
23、統(tǒng)計(jì)模式分類問題中,當(dāng)先驗(yàn)概率未知時,可使用(②最小最大損失準(zhǔn)則 ④N-P判決)
24、在(①Cn>>n,(n為原特征個數(shù),d為要選出的特征個數(shù))③選用的可分性判據(jù)J對特征數(shù)目單調(diào)不減)情況下,用分支定界法做特征選擇計(jì)算量相對較少。
25、散度JD是根據(jù)(③類概率密度)構(gòu)造的可分性判據(jù)。
26、似然函數(shù)的概型已知且為單峰,則可用(①矩估計(jì)②最大似然估計(jì)③Bayes估計(jì) ④Bayes學(xué)習(xí)⑤Parzen窗法)估計(jì)該似然函數(shù)。
27、Kn近鄰元法較之Parzen窗法的優(yōu)點(diǎn)是(②穩(wěn)定性較好)。
28、從分類的角度講,用DKLT做特征提取主要利用了DKLT的性質(zhì):(①變換產(chǎn)生的新分量正交或不相關(guān)③使變換后的矢量能量更趨集中)。
29、一般,剪輯k-NN最近鄰方法在(①樣本數(shù)較大)的情況下效果較好。d29、如果以特征向量的相關(guān)系數(shù)作為模式相似性測度,則影響聚類算法結(jié)果的主要因素有(②分類準(zhǔn)則 ③特征選?。?。30、假設(shè)在某個地區(qū)細(xì)胞識別中正常(w1)和異常(w2)兩類先驗(yàn)概率分別為 P(w1)=0.9,P(w2)=0.1,現(xiàn)有一待識別的細(xì)胞,其觀察值為x,從類條件概率密度分布曲線上查得P(xw1)?0.2,P(xw2)?0.4,并且已知?11?0,?12?6,?21?1,?22?0
試對該細(xì)胞x用一下兩種方法進(jìn)行分類: 1.基于最小錯誤率的貝葉斯決策; 2.基于最小風(fēng)險(xiǎn)的貝葉斯決策; 請分析兩種結(jié)果的異同及原因。