<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>情報工学とその周辺 &#187; Machine Learning</title>
	<atom:link href="http://eisukeito.com/blog/?cat=2&#038;feed=rss2" rel="self" type="application/rss+xml" />
	<link>http://eisukeito.com/blog</link>
	<description>Connecting dots.</description>
	<lastBuildDate>Sat, 28 Dec 2013 13:56:12 +0000</lastBuildDate>
	<language>ja</language>
		<sy:updatePeriod>hourly</sy:updatePeriod>
		<sy:updateFrequency>1</sy:updateFrequency>
	<generator>https://wordpress.org/?v=3.8.41</generator>
	<item>
		<title>[BCI] Classification of covariance matrices using a Riemannian-based kernel for BCI applications</title>
		<link>http://eisukeito.com/blog/?p=193</link>
		<comments>http://eisukeito.com/blog/?p=193#comments</comments>
		<pubDate>Thu, 21 Mar 2013 12:18:20 +0000</pubDate>
		<dc:creator><![CDATA[eisuke]]></dc:creator>
				<category><![CDATA[Algorithms]]></category>
		<category><![CDATA[Brain-Computer Interfaces]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[Paper]]></category>

		<guid isPermaLink="false">http://eisukeito.com/blog/?p=193</guid>
		<description><![CDATA[概要 空間分散共分散行列を特徴量として使用することは、BCIの運動想起によるEEGの識別で研究されている。新しいカーネルは対称正定値行列のリーマン幾何による接続を確立することにより導出される。過去のBCIコンペのデータに [&#8230;]]]></description>
				<content:encoded><![CDATA[<p><strong>概要</strong><br />
空間分散共分散行列を特徴量として使用することは、BCIの運動想起によるEEGの識別で研究されている。新しいカーネルは対称正定値行列のリーマン幾何による接続を確立することにより導出される。過去のBCIコンペのデータに対し、異なるカーネルをSVMとの組み合わせでテストした。この新しいアプローチが、従来からの空間フィルタリングによるアプローチに代わるような性能であることを示す。</p>
<p><strong>キーワード</strong><br />
Brain-Computer Interface, 分散共分散行列, カーネル, Support Vector Machine, リーマン幾何</p>
<p><strong>内容<br />
</strong>運動想起(MI; motor imagery)は、実際の身体の動きをイメージすることで、結果として、感覚運動野sensorimotor cortexの広い皮質領域で特定の脳波の周波数帯(μ、β周波数帯)においてERS; event related synchronization / ERD; event related desynchronizationが起きる。 (Pfurtscheller and Lopes da Silva, 1999)</p>
<p>運動想起に基づくEEG識別のスタンダートなアプローチとしては、バンドパスフィルタリング、空間フィルタリングをして線形分類を行う方法が用いられ、分類にはFisherのLDA; linear discriminat analysisが用いられる。</p>
<p>空間フィルタリングの手法としては、CSP; common spatial pattern (Ramoser, 2000)がよく使用される。<br />
このアルゴリズムは、データ依存の次元削減法とみなすことができ、2つのコンディションの分散の差を強調する目的で使用される。<br />
その際は、分散共分散行列はユークリッド空間で扱われ、SPD; symmetric positive definite対称正定値行列の空間の歪みは考慮されない。</p>
<p>EEGの分類のためのリーマン幾何を考慮するシンプルな方法<br />
このアプローチは、過去にレーダー信号と画像処理においてうまくいった。<br />
その上、新しいカーネルはSPD行列のリーマン幾何での接続をすることによって導出できる。<br />
似たようなアプローチ (Harandi et al., 2012; Wang et al., 2010)<br />
リーマン計量に依存する異なるカーネルの定義も導出</p>
<p>SVMと組み合わせてテスト<br />
カーネルトリックが適用できる他の分類法 ロジスティック回帰 logistic regression も行った。<br />
現在の手法よりも優れているのは、空間フィルタリングをする必要がなく、直接適用できること。(Barachant et al., 2010)</p>
<p><strong>対称正定値行列に対する新しいカーネル</strong><br />
EEG信号は、試行 trials とよばれる短い時間セグメントで解析される。<br />
入力信号 <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20X%7D%20%5Cin%20%7B%5Cmathbb%20R%7D%5E%7BE%5Ctimes%20T%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf X} \in {\mathbb R}^{E\times T}' title='{\mathbf X} \in {\mathbb R}^{E\times T}' class='latex' /> (チャンネル数<img src='http://s.wordpress.com/latex.php?latex=E&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='E' title='E' class='latex' /> x サンプル数<img src='http://s.wordpress.com/latex.php?latex=T&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='T' title='T' class='latex' />の行列)<br />
異なるEEG信号にバンドパスフィルタを適用すると仮定、μ(8-14Hz)とβ(14-30Hz) バンドを考慮して8-35Hzのバンドパスフィルタを適用。<br />
2クラス分類  <img src='http://s.wordpress.com/latex.php?latex=y_p%20%5Cin%20%5C%7B-1%2C%20%2B1%5C%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='y_p \in \{-1, +1\}' title='y_p \in \{-1, +1\}' class='latex' /></p>
<p>EEGのランダム信号の空間分散共分散行列はExEのサンプル分散共分散行列(SCM)<br />
<img src='http://s.wordpress.com/latex.php?latex=C_p%20%3D%20%5Cfrac%7B1%7D%7BT-1%7D%20%7B%5Cmathbf%20X_p%7D%7B%5Cmathbf%20X%5ET_p%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='C_p = \frac{1}{T-1} {\mathbf X_p}{\mathbf X^T_p}' title='C_p = \frac{1}{T-1} {\mathbf X_p}{\mathbf X^T_p}' class='latex' /><br />
によって計算。<br />
SPD ExE行列空間をP(E)をする。<br />
SCMは外れ値 outlier に敏感なため、robustな分散共分散行列推定か正則化が推定法を改良するために適用可能</p>
<p>空間フィルタリングを次元削減と異なる運動クラスのEEG試行同士の分散比を強調するために使用するのはMI-basedなBCIでは一般的 (Blankertz et al., 2008)</p>
<p>空間フィルタ後の分散の対数 log-variance は線形分類器(LDA)への入力として使用される。</p>
<p>CSP (Ramoser et al., 2000) は2クラスの運動想起タスクのEEGのクラス分類のための特徴量抽出のための手法としてうまくいっている<br />
この手法は２つのコンディションで得られるクラス内分散共分散行列を同時対角化するもの</p>
<p>提案手法では、EEG-basedなBCIの信号分類のための入力として、空間分散共分散行列を直接利用</p>
<p>分散共分散行列を識別で特徴量として使用する場合、自然な選択はこの量をベクトルとして利用するためにベクトル化することであり、それによりvector-basedな分類アルゴリズムが使用可能<br />
対称行列であることを利用して、半ベクトル化演算子を考える<br />
Cの上三角行列を<br />
<img src='http://s.wordpress.com/latex.php?latex=%20%5Cfrac%7B%28E%2B1%29E%7D%7B2%7D%20&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt=' \frac{(E+1)E}{2} ' title=' \frac{(E+1)E}{2} ' class='latex' /><br />
のカラムベクトルへ変換<br />
<img src='http://s.wordpress.com/latex.php?latex=%20vect%28%7B%5Cmathbf%20C%7D%29%20%3D%20%5Cleft%5B%20C_%7B%281%2C1%29%7D%2C%20%7B%5Csqrt%202%7DC_%7B%281%2C2%29%7D%2C%20C_%7B%282%2C2%29%7D%2C%20%7B%5Csqrt%202%7DC_%7B%281%2C3%29%7D%2C%20%7B%5Csqrt%202%7DC_%7B%282%2C3%29%7D%2C%20C_%7B%283%2C3%29%7D%2C%20%5Cdots%20%2C%20C_%7B%28E%2CE%29%7D%20%5Cright%5D%5ET%20&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt=' vect({\mathbf C}) = \left[ C_{(1,1)}, {\sqrt 2}C_{(1,2)}, C_{(2,2)}, {\sqrt 2}C_{(1,3)}, {\sqrt 2}C_{(2,3)}, C_{(3,3)}, \dots , C_{(E,E)} \right]^T ' title=' vect({\mathbf C}) = \left[ C_{(1,1)}, {\sqrt 2}C_{(1,2)}, C_{(2,2)}, {\sqrt 2}C_{(1,3)}, {\sqrt 2}C_{(2,3)}, C_{(3,3)}, \dots , C_{(E,E)} \right]^T ' class='latex' /><br />
一般性を失わないために、<img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20C%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf C}' title='{\mathbf C}' class='latex' />の非対角成分に対して係数<img src='http://s.wordpress.com/latex.php?latex=%7B%5Csqrt%202%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\sqrt 2}' title='{\sqrt 2}' class='latex' />を掛ける。これにより<img src='http://s.wordpress.com/latex.php?latex=%5C%7C%7B%5Cmathbf%20C%7D%5C%7C_%7BF%7D%20%3D%20%5C%7C%7B%5Crm%20vect%28%7B%5Cmathbf%20C%7D%29%7D%5C%7C_2&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\|{\mathbf C}\|_{F} = \|{\rm vect({\mathbf C})}\|_2' title='\|{\mathbf C}\|_{F} = \|{\rm vect({\mathbf C})}\|_2' class='latex' /><br />
<img src='http://s.wordpress.com/latex.php?latex=%7B%5Crm%20unvect%7D%28%7B%5Cmathbf%20x%7D%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\rm unvect}({\mathbf x})' title='{\rm unvect}({\mathbf x})' class='latex' />により反対の操作を定義<br />
こういうアプローチは (Farquhar, 2009; Reuderink et al., 2011)でやってる<br />
線形分類にかけるCSPライクな空間フィルタリングは、分類のための特徴量として分散共分散のベクトル化を考えることで高次元空間において単一のステップとなることを示唆<br />
実際、分類スコア関数 <img src='http://s.wordpress.com/latex.php?latex=h%28.%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='h(.)' title='h(.)' class='latex' /> は、空間フィルタリング後のEEG信号の時間分散 <img src='http://s.wordpress.com/latex.php?latex=%5Csigma%5E2&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\sigma^2' title='\sigma^2' class='latex' /> に線形分類器 <img src='http://s.wordpress.com/latex.php?latex=%28%7B%5Cmathbf%20u%7D%2C%20b%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='({\mathbf u}, b)' title='({\mathbf u}, b)' class='latex' /> と適用することで得られる。<br />
空間フィルタ <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20W%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf W}' title='{\mathbf W}' class='latex' /> を用いると、<br />
<img src='http://s.wordpress.com/latex.php?latex=%20h%28%7B%5Cmathbf%20%5Csigma%5E2%7D%29%20%3D%20%5Clangle%20%7B%5Cmathbf%20u%7D%2C%20%7B%5Cmathbf%20%5Csigma%5E2%7D%20%5Crangle%20%2B%20b%20%3D%20%5Csigma_k%20u_k%20%7B%5Cmathbf%20w_k%5ET%20C%20w_k%7D%20%2B%20b%20%3D%20%7B%5Crm%20tr%7D%28%7B%5Crm%20diag%7D%28%7B%5Cmathbf%20u%7D%29%20%7B%5Cmathbf%20W%5ET%20C%20W%7D%29%20%2B%20b%20%3D%20%5Clangle%20%7B%5Cmathbf%20U%7D%2C%20%7B%5Cmathbf%20C%7D%20%5Crangle_%7BF%7D%20%2B%20b%20&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt=' h({\mathbf \sigma^2}) = \langle {\mathbf u}, {\mathbf \sigma^2} \rangle + b = \sigma_k u_k {\mathbf w_k^T C w_k} + b = {\rm tr}({\rm diag}({\mathbf u}) {\mathbf W^T C W}) + b = \langle {\mathbf U}, {\mathbf C} \rangle_{F} + b ' title=' h({\mathbf \sigma^2}) = \langle {\mathbf u}, {\mathbf \sigma^2} \rangle + b = \sigma_k u_k {\mathbf w_k^T C w_k} + b = {\rm tr}({\rm diag}({\mathbf u}) {\mathbf W^T C W}) + b = \langle {\mathbf U}, {\mathbf C} \rangle_{F} + b ' class='latex' /></p>
<p>SVMによる分類への適用</p>
<p>結果とまとめ</p>
]]></content:encoded>
			<wfw:commentRss>http://eisukeito.com/blog/?feed=rss2&#038;p=193</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>[PRML] 1.1 多項式曲線フィッティング (2)</title>
		<link>http://eisukeito.com/blog/?p=95</link>
		<comments>http://eisukeito.com/blog/?p=95#comments</comments>
		<pubDate>Thu, 27 Dec 2012 22:20:30 +0000</pubDate>
		<dc:creator><![CDATA[eisuke]]></dc:creator>
				<category><![CDATA[PRML]]></category>

		<guid isPermaLink="false">http://eisukeito.com/blog/?p=95</guid>
		<description><![CDATA[次数 の決め方 次に、多項式の次数 は、どう選べばよいのでしょうか。 この問題はモデル選択(model selection)と呼ばれています。 それでは、実際に の値をいろいろと変えてみたものを見てみましょう。 (図　作 [&#8230;]]]></description>
				<content:encoded><![CDATA[<p><strong>次数 <img src='http://s.wordpress.com/latex.php?latex=M&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='M' title='M' class='latex' /> の決め方</strong><br />
次に、多項式の次数 <img src='http://s.wordpress.com/latex.php?latex=M&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='M' title='M' class='latex' /> は、どう選べばよいのでしょうか。<br />
この問題は<strong>モデル選択</strong>(model selection)と呼ばれています。</p>
<p>それでは、実際に <img src='http://s.wordpress.com/latex.php?latex=M&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='M' title='M' class='latex' /> の値をいろいろと変えてみたものを見てみましょう。</p>
<p>(図　作成中)</p>
<p>次数 <img src='http://s.wordpress.com/latex.php?latex=M&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='M' title='M' class='latex' /> が小さすぎる場合、ほとんどの訓練データへの当てはまりが悪いのが分かります。<br />
反対に、次数 <img src='http://s.wordpress.com/latex.php?latex=M&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='M' title='M' class='latex' /> が大きすぎる場合、訓練データへの当てはまりが非常に良くなっています。例えば、次数 <img src='http://s.wordpress.com/latex.php?latex=M%20%3D%209&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='M = 9' title='M = 9' class='latex' /> の例では、<img src='http://s.wordpress.com/latex.php?latex=E%28%7B%5Cmathbf%20w%7D%5E%2A%29%20%3D%200&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='E({\mathbf w}^*) = 0' title='E({\mathbf w}^*) = 0' class='latex' /> となっていて、誤差が無い状態です。</p>
<p>では <img src='http://s.wordpress.com/latex.php?latex=M%20%3D%209&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='M = 9' title='M = 9' class='latex' /> の場合が一番良いのでしょうか。</p>
<p>そうではなさそうですよね。<br />
関数の形が発振したようにぐにゃぐにゃになってしまっています。<br />
このような状態では、<strong>訓練データに対する当てはまりが良すぎて、新しいデータ、つまりテストデータに対しては、うまく目標値を予測することができません</strong>。<br />
この状態を、<strong>過学習</strong>(over-fitting)とよびます。</p>
<p>では、よい次数 <img src='http://s.wordpress.com/latex.php?latex=M&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='M' title='M' class='latex' /> はどうやって選べばよいのでしょうか。</p>
<p>&#8230;答えは単純です。</p>
<p>いろいろとMを変えてみて、それぞれについて誤差 <img src='http://s.wordpress.com/latex.php?latex=E%28%7B%5Cmathbf%20w%7D%5E%2A%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='E({\mathbf w}^*)' title='E({\mathbf w}^*)' class='latex' /> を求め、比較すればいいのです。</p>
<p>実際には、<strong>平均二乗平方根誤差</strong>(RMS error, root-mean-square error)という指標を使います。</p>
<p><img src='http://s.wordpress.com/latex.php?latex=E_%7BRMS%7D%20%3D%20%5Csqrt%7B%5Cfrac%7B2E%28%7B%5Cmathbf%20w%7D%5E%2A%29%7D%7BN%7D%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='E_{RMS} = \sqrt{\frac{2E({\mathbf w}^*)}{N}}' title='E_{RMS} = \sqrt{\frac{2E({\mathbf w}^*)}{N}}' class='latex' /><br />
<br />
この指標は、</p>
<ul>
<li>データ数 <img src='http://s.wordpress.com/latex.php?latex=N&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='N' title='N' class='latex' /> で誤差関数を割っているため、異なるデータ数をもつデータに有効</li>
<li>平方根をとっているため、目標値 <img src='http://s.wordpress.com/latex.php?latex=t&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='t' title='t' class='latex' /> と単位が揃う
</ul>
<p>というメリットがあります。</p>
<p>次数 <img src='http://s.wordpress.com/latex.php?latex=M&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='M' title='M' class='latex' /> の場合の、<img src='http://s.wordpress.com/latex.php?latex=E%28%7B%5Cmathbf%20w%7D%5E%2A%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='E({\mathbf w}^*)' title='E({\mathbf w}^*)' class='latex' /> を訓練集合とテスト集合それぞれについて調べてみると、以下のような結果になりました。</p>
<p>(図　作成中)</p>
<p>次数が高い多項式は次数が低い多項式を特殊な場合として含むので、次数が高くなるにつれてよいモデルになりそうですが、結果は異なります。<br />
これは多項式の次数が高すぎると、データに含まれるノイズに敏感になってしまうためと考えることができます。</p>
<p><strong>データ集合のサイズを大きくする</strong></p>
<p>今度は、次数 <img src='http://s.wordpress.com/latex.php?latex=M&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='M' title='M' class='latex' /> を固定したうえで、データ集合 <img src='http://s.wordpress.com/latex.php?latex=N&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='N' title='N' class='latex' /> のサイズを変えてみましょう。</p>
<p>(図 作成中)</p>
<p>どうでしょうか。</p>
<p>先ほど問題になっていた複雑な多項式モデル <img src='http://s.wordpress.com/latex.php?latex=M%20%3D%209&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='M = 9' title='M = 9' class='latex' /> ですが、データ数 <img src='http://s.wordpress.com/latex.php?latex=N&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='N' title='N' class='latex' /> が増えたことで過学習が緩和されていることが分かります。</p>
<p>訓練データの数が大きくなると、より複雑なモデルをデータに当てはめることができます。</p>
<p>この議論で行くと、入手できる訓練データの数によって、モデルの複雑さ(この場合の次数 <img src='http://s.wordpress.com/latex.php?latex=M&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='M' title='M' class='latex' /> )を選ばなくてはならなくなってしまうので、違和感があります。</p>
<p><strong>限られたサイズの訓練データに対して複雑で柔軟なモデルを使うことができるようにする</strong>ために、<strong>正則化</strong>(regularization)というテクニックがあります。</p>
]]></content:encoded>
			<wfw:commentRss>http://eisukeito.com/blog/?feed=rss2&#038;p=95</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>[PRML] 1. データに潜むパターンを見つけ出す。</title>
		<link>http://eisukeito.com/blog/?p=13</link>
		<comments>http://eisukeito.com/blog/?p=13#comments</comments>
		<pubDate>Tue, 25 Dec 2012 18:34:55 +0000</pubDate>
		<dc:creator><![CDATA[eisuke]]></dc:creator>
				<category><![CDATA[PRML]]></category>

		<guid isPermaLink="false">http://eisukeito.com/blog/?p=13</guid>
		<description><![CDATA[パターン認識という学問 計算機アルゴリズムを通じて、データの中の規則性を自動的に見つけ出し、さらにその規則性を使ってデータを異なるカテゴリに分類する、というデータ処理を行う 素直な方法 人力による識別ルールの作成 ヒュー [&#8230;]]]></description>
				<content:encoded><![CDATA[<p><strong>パターン認識という学問</strong></p>
<blockquote><p>計算機アルゴリズムを通じて、データの中の規則性を自動的に見つけ出し、さらにその規則性を使ってデータを異なるカテゴリに分類する、というデータ処理を行う</p></blockquote>
<p><strong>素直な方法</strong></p>
<ul>
<li>人力による識別ルールの作成</li>
<li>ヒューリスティクスを編み出す</li>
</ul>
<p>ただし、こういった方法ではあらかじめ作らなくてはいけないルールの数を爆発的に増やさなくてはならなかったり、例外が起きたときのルールも爆発的に増えてしまいます。</p>
<p><strong>パターン認識での方法</strong></p>
<ul>
<li>訓練集合(training set) <img src='http://s.wordpress.com/latex.php?latex=%5C%7B%7B%5Cmathbf%20x%7D_1%2C%5Cldots%2C%20%7B%5Cmathbf%20x%7D_N%5C%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\{{\mathbf x}_1,\ldots, {\mathbf x}_N\}' title='\{{\mathbf x}_1,\ldots, {\mathbf x}_N\}' class='latex' /> の入力 <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20x_i%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf x_i}' title='{\mathbf x_i}' class='latex' /> により関数のパラメータを更新し、出力(target vector) <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20t_i%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf t_i}' title='{\mathbf t_i}' class='latex' /> となるような関数 <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20t%7D%20%3D%20y%28%7B%5Cmathbf%20x%7D%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf t} = y({\mathbf x})' title='{\mathbf t} = y({\mathbf x})' class='latex' /> を作る</li>
<li>テスト集合(test set)の入力 <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20x%7D_j&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf x}_j' title='{\mathbf x}_j' class='latex' /> に対して出力 <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20t%7D_j&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf t}_j' title='{\mathbf t}_j' class='latex' />  が予測(prediction)できるようになる</li>
</ul>
<p><strong>処理の手順</strong></p>
<ol>
<li>入力データに対する前処理(preprocessing)あるいは特徴抽出(feature extraction)を行う(次元削減とか)</li>
<li>訓練集合の入力 <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20x%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf x}' title='{\mathbf x}' class='latex' /> と目標ベクトル <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20t%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf t}' title='{\mathbf t}' class='latex' /> を対応付ける関数 <img src='http://s.wordpress.com/latex.php?latex=y&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='y' title='y' class='latex' /> の導出</li>
<li>関数 <img src='http://s.wordpress.com/latex.php?latex=y&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='y' title='y' class='latex' /> によりテスト集合 <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20x%27%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf x&#039;}' title='{\mathbf x&#039;}' class='latex' /> の目標ベクトル <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20t%27%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf t&#039;}' title='{\mathbf t&#039;}' class='latex' /> を予測</li>
</ol>
<p><strong>パターン認識の扱う問題の種類</strong><br />
大きく分けて</p>
<ol>
<li>教師あり学習(supervised learning)：訓練データが、入力ベクトル <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20x%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf x}' title='{\mathbf x}' class='latex' /> と目標ベクトル <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20t%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf t}' title='{\mathbf t}' class='latex' /> の事例で構成される場合</li>
<li>教師なし学習(unsupervised learning)：訓練データが、入力ベクトル <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20x%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf x}' title='{\mathbf x}' class='latex' /> のみで構成される(それらに対応する目標ベクトルが存在しない)場合</li>
</ol>
<p>に分けることができます。<br />
このほかに</p>
<ul>
<li>半教師あり学習(semi-supervised learning)：訓練データの中に、目標ベクトルがない事例も含まれる場合</li>
<li>強化学習(reinforcement learning)：最適な出力は事例として与えられず、与えられた状況下で、報酬を最大化するように学習を行う場合</li>
</ul>
<p>などもあります。</p>
<p><strong>教師あり学習</strong><br />
教師あり学習には、大きく分けて2つの場合があり、</p>
<ol>
<li>クラス分類(classification)：各入力ベクトルを離散カテゴリの一つに割り当てる場合</li>
<li>回帰(regression)：各入力ベクトルに対し、一つあるいは複数の連続値を与える場合</li>
</ol>
<p><strong>教師なし学習<br />
</strong>教師なし学習には</p>
<ul>
<li>クラスタリング(clustering)：類似した事例のグループを見つけること</li>
<li>密度推定(density estimation)：入力空間におけるデータの分布を求めること</li>
</ul>
<p>などがあります。</p>
<p><strong>パターン認識を学ぶのに必要な知識</strong></p>
<ul>
<li>微分積分学</li>
<li>線形代数学</li>
</ul>
<p>は基本として、</p>
<ul>
<li>確率論</li>
<li>決定理論</li>
<li>情報理論</li>
</ul>
<p>の知識が必須です。</p>
<p>(言葉だけだと分かりづらいので、図とかTeXとかで更新予定です)</p>
]]></content:encoded>
			<wfw:commentRss>http://eisukeito.com/blog/?feed=rss2&#038;p=13</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
