<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>情報工学とその周辺 &#187; Paper</title>
	<atom:link href="http://eisukeito.com/blog/?cat=4&#038;feed=rss2" rel="self" type="application/rss+xml" />
	<link>http://eisukeito.com/blog</link>
	<description>Connecting dots.</description>
	<lastBuildDate>Sat, 28 Dec 2013 13:56:12 +0000</lastBuildDate>
	<language>ja</language>
		<sy:updatePeriod>hourly</sy:updatePeriod>
		<sy:updateFrequency>1</sy:updateFrequency>
	<generator>https://wordpress.org/?v=3.8.41</generator>
	<item>
		<title>Learning Using Privileged Information: SVM+ and Weighted SVM</title>
		<link>http://eisukeito.com/blog/?p=309</link>
		<comments>http://eisukeito.com/blog/?p=309#comments</comments>
		<pubDate>Thu, 21 Nov 2013 09:55:09 +0000</pubDate>
		<dc:creator><![CDATA[eisuke]]></dc:creator>
				<category><![CDATA[Paper]]></category>

		<guid isPermaLink="false">http://eisukeito.com/blog/?p=309</guid>
		<description><![CDATA[June 2013, M. Lapin+ = 学習アルゴリズムに事前知識(prior knowledge)を組み込むことで、 - 学習アルゴリズムの識別率向上 - 訓練に必要なデータ量の削減 が行える。 Vapnikら( [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>June 2013, M. Lapin+</p>
<p>=</p>
<p>学習アルゴリズムに事前知識(prior knowledge)を組み込むことで、</p>
<p>- 学習アルゴリズムの識別率向上<br />
- 訓練に必要なデータ量の削減</p>
<p>が行える。<br />
Vapnikら(2009)によって提案されたLUPI(Learning Using Privileged Information)パラダイムでは、訓練時にのみ使用できる付加情報を利用することでこれを可能にしている。</p>
<p>本論文では、</p>
<p>- privileged information(特権情報?)を重要度の重み付けに利用<br />
- privileged features(特権特徴量)として表現可能な事前知識を、それぞれの訓練事例についての重みによって表現</p>
<p>Weighted SVMがSVM+の解を常に再現する一方、収束せずSVM+の限界となる反例を示す。<br />
privileged informationが利用できない場合のweighted SVMの重み選択問題についても触れる。</p>
<p>=</p>
<p># 事前知識、特権情報、重み<br />
分類問題において、訓練データの量が限られている場合、訓練用サンプルに加えて利用可能な情報ー事前知識(prior knowledge)ーは識別性能の改善にとって重要な要素。<br />
事前知識は異なる形式をとり、学習問題への組み込み方はアルゴリズムと同様に、独特の設定が必要。<br />
二値分類での事前知識のSVM(Support Vector Machine)への導入に焦点を当てて解説する。</p>
<p>Lauer &#038; Bloch (2008)では、事前知識をSVMに組み込むための異なる方法をレビューし、それらの方法を事前知識の型(type)に応じて分類。</p>
<p>本論文では、目的関数に関するものよりも、&#8221;訓練データに関する付加情報&#8221;についての場合を考える。</p>
<p>厳密でないが関連する設定としては、半教師あり学習のアプローチがあり、ラベルづけされていないデータが入力空間における周辺分布についてのある情報をもっているというもの。</p>
<p>Vapnik &#038; Vashist(2009)において、LUPI(Learning Using Privileged Information)パラダイムが提案された。<br />
この中では、付加情報は特権特徴量(privileged features)という形式をとり、これは訓練時に利用できるが、テスト時には使用できない。<br />
これらの特徴量は<br />
- 損失関数の上界をパラメータ化<br />
- 与えられた訓練サンプルについて最適な識別器の損失を推定<br />
するのに使用される。</p>
<p>高い損失の値は、与えられたデータ点が外れ値である可能性がある場合の指標という見方もできる。<br />
故に、外れ値でない場合とは異なる取り扱いをしなければならない。</p>
<p>訓練事例が外れ値である可能性がある場合の付加情報は、インスタンスの重みによってエンコードされる。<br />
よって、LUPIフレームワークと重要度重み付けの関係は非常に近いものと予想できる。</p>
<p>重要度重み付けの場合、非負の重みをもつ各訓練事例は、エラーのコストのバランスをとるために損失関数で使用される。<br />
インスタンスの重みが自然にできる典型的な例は、cost-sensitive learningである。(Elkan, 2001)</p>
<p>もしクラスに偏りがあったり、異なる誤分類エラーが異なるペナルティーを受けたりすることがあれば、事前知識をインスタンスの重みとしてエンコードできる。<br />
データ点への高い重みづけは、学習アルゴリズムがその点を正しく、おそらく&#8221;重要ではない&#8221;として誤分類されたコストで、識別すべきであることを示唆している。</p>
<p>しかしながら、本論文では、cost-sensitiveな仮定を行わない。(つまり、異なるエラーはテスト集合について異なるコストを生むという仮定はしない)</p>
<p>代わりに、訓練集合とテスト集合での重要度重みづけを分ける。<br />
これにより、もしそれによりよいモデルが得られるならば、外れ値に対して高い重みづけを行うこともできる。</p>
<p>事前知識の異なる形式が存在し、エンコードも異なる可能性がある。<br />
本論文では、インスタンスの重みが&#8221;事前知識の同じ型&#8221;を表現でき、特権特徴量によってエンコードされることを示す。<br />
特に、これにより重要度の重みづけがされたという点において特権特徴量の効果を説明できる。<br />
驚くことに、結果の重みは外れ値を強調する。これはSVMのサポートベクターにも起こる。</p>
<p>SVMをLUPI frameworkに拡張するSVM+アルゴリズム。<br />
凸解析の基本ツールを使い、SVM+解の一意性とその解がweighted SVM (WSVM)と関係することを求める。<br />
SVM+の解とWSVMのインスタンス重みには、単純なつながりがある。<br />
さらに、その関係がSVM+アルゴリズムのさらなる理解と、SVM+の限界を学ぶために使用できる。<br />
WSVMにおけるインスタンス重みがSVM+の特権特徴量のように同じ目的を持っていることを見た上で、特権特徴量が使用できない場合の重み選択の問題に戻る。</p>
<p>- SVM+のnon-trivialな解が主形式において一意であることを示す。オフセットbが一意でないWSVMよりも強い解。<br />
- SVM+を双対最適化問題に変形。WSVMアルゴリズムと密接な繋がりがあることを明らかにする。特に任意のSVM+双対解がWSVMに対する重みを構成できることを示す。適切な重み選択によりWSVMがSVM+を擬似的に模倣できることを示し、これによりSVM+の解からWSVMの解を求めることが常に可能である。<br />
- WSVMの解からSVM+の解が求められるかを調べる(つまり２つのアルゴリズムが同値かどうか)。同値になる必要十分条件を与え、SVM+の解がWSVMの解のstrict subsetになっていることを明らかにする。WSVMの解がSVM+によって求められない場合の例を示す。<br />
- 特権特徴量がない場合の重み選択問題に帰着</p>
<p>(書きかけメモ)</p>
]]></content:encoded>
			<wfw:commentRss>http://eisukeito.com/blog/?feed=rss2&#038;p=309</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>[Connectome] Contour-Propagation Algorithms for Semi-Automated Reconstruction of Neural Processes</title>
		<link>http://eisukeito.com/blog/?p=275</link>
		<comments>http://eisukeito.com/blog/?p=275#comments</comments>
		<pubDate>Fri, 19 Apr 2013 06:54:52 +0000</pubDate>
		<dc:creator><![CDATA[eisuke]]></dc:creator>
				<category><![CDATA[Paper]]></category>

		<guid isPermaLink="false">http://eisukeito.com/blog/?p=275</guid>
		<description><![CDATA[Mache et al., 2007 より 新しい技法である&#8221;Serial Block Face Scanning Electron Microscopy(SBFSEM)&#8221;は電子顕微鏡での生物組織 [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>Mache et al., 2007 より</p>
<p>新しい技法である&#8221;Serial Block Face Scanning Electron Microscopy(SBFSEM)&#8221;は電子顕微鏡での生物組織のsectioningとimagingの自動化を可能にした。 (Denk and Horstmann, 2004)<br />
この技法による画像のスタックは、シナプス構造を含む異なる細胞の部分を区別するのに十分な解像度をもち、これにより完全な神経回路の解剖学的知識の詳細が得られる。<br />
画像のスタックは数千枚の画像からなり、最小ボクセルサイズはx-y軸が10-20nm、y軸が30nm。数百TB。(Briggman and Denk, 2006)<br />
故に、(人の手で作業するには膨大で)高度な3D再構築自動化アルゴリズムが必要とされている。</p>
<p>最初のステップとして、細胞膜の正確な輪郭トレースのための半自動化アルゴリズムを開発。<br />
画像のスタックのセグメント間の抽出したオブジェクトの3D観測を可能にした。<br />
手動でのトレーシングと比べると、処理時間は大幅に向上した。</p>
<p>本論では、ハエの視覚神経節の一部を再構築するアルゴリズムの開発を行っている。<br />
(Strausfeld, 1984)によると、ハエの視覚システムは蛍光顕微鏡で見ることができる解像度では、すでによく観察されているが、ultrastructural levelの知識は、visual motion processingでの回路を見るために必要である。(Borst and Haag, 2002)</p>
<p>原理的には3次元画像ブロックを直接セグメント化することは可能であり、事前の画像から得られる情報を使って、シーケンス内の各画像のセグメントを選択した。</p>
<p><strong>処理のステップ</strong><br />
1. 同じmedianとinter-quartile rangeを持つように各画像の輝度値 intensity value の正規化<br />
2. 空間フィルタの適用。Gaussian broadeningか非線形拡散nonlinear diffusionを選択。(Perona and Malik, 1990)<br />
非線形拡散は、ノイズ除去エッジ保存フィルタリング手法であり、各場所で輝度勾配の推定に依存するフィルタの度数をを決定。これにより、強いエッジは保存されるが、そうでない部分はかなり平滑化される。<br />
MATLAB Toolbox(D&#8217;Almeida, 2000)を利用。<br />
フィルタ性能がパラメータのとり方にsensitiveであることから、パラメータを最適化するのが望ましいadvisable。あるいは、人の手でラベルづけされた画像からフィルタを学習(Vollgraf et al., 2004)<br />
3. 隣り合う画像同士のクロス相関を計算。これにより、欠陥画像の検知と除去が可能。例えばゴミが入ったりした場合に。</p>
<p><strong>セグメンテーションアルゴリズム</strong><br />
一般的なアプローチ<br />
スタック全体を一度にやるのではなく、シーケンシャルに行った。?<br />
オブジェクトが隣接する画像にかけて連続していると仮定。<br />
連続性を確かなものにするため、事前の画像のセグメンテーションからの情報と、現在の画像のピクセル強度 the pixel-intensities を組み合わせる必要がある。<br />
一つの画像のセグメントは次の画像に伝播する。<br />
ただし、最初の画像に対しては別の戦略を用いた。(後述)</p>
<p><strong>Level Set 法</strong><br />
陽にオブジェクトの境界を表現する方法(例:スプライン関数)は使用せず、陰に符号化距離関数Φのゼロレベル集合を使用。<br />
foregroundとbackgroundに分ける画像セグメントI:Ω->Rを探索。I(x)は画像のグレイスケール。<br />
(Osher and Fedkiw, 2003; Sethian, 1999)によるレベル集合フレームワークでは、Ω+={x:Φ(x)>0}をforeground(例:ニューロン内部のビクセル集合)、Ω-={x: Φ(x)<0}をbackgroundとするような関数Φ:Ω->Rを見つけたい。<br />
オブジェクトとbackgroundを分ける輪郭contourは、Γ={x:Φ(x)=0}で与えられる。<br />
注意すべきは、複数のオブジェクトをもつ画像は、オブジェクトをforeground領域の接続要素として定義することで、一つのセグメンテーション関数Φによってセグメント化できるということ。</p>
<p>この埋め込みはユニークではない、Φは時々signed distance function (SDF)によって制約を受ける。<br />
例:絶対値は境界に境界最近傍への距離を与えることによる ?<br />
しかしながら、その場合になることはない。<br />
例えば、セグメンテーションに対する確率モデルが与えられたとき、Φ(x)+t (tはスカラー値オフセット)は、ピクセルxがforegroundに属する確率の対数とみなせる。この場合、Φ(x)はあるピクセルが何の領域に割り当てられているかのみならず、割り当て対する信頼度としても表現される。</p>
<p>陽表現と比較して、陰表現はトポロジー変化(オブジェクトの結合merging と分割splitting)に対して容易に対処でき、高次元への拡張が容易に可能であるという利点がある。<br />
画像のエッジ検出によらない領域ベースな方法に焦点をあてながらも、fore-とbackground領域のピクセル強度の分布の差を利用することにフォーカスする。<br />
実用上は、時間変数tを導入し、Φtが何らかのエネルギー関数E(Φ,I)を最小化するために含まれる。(Cremaers et al., 2006)</p>
<p>共焦点や多光子顕微鏡から得られた画像の解析のために、神経構造は円形構造が連なるチューブ様としてモデル化することが可能であるという仮定に基づくが、本論では円と異なるという観測から、その仮定はおかない。</p>
<p>レベル集合法は、生物医学応用で3次元物体のセグメンテーションのためによく使用される手法。(Whitaker et al., 2001)<br />
本論で提案されている手法は、ひとつの画像から次の画像へ情報が伝播するという点やエネルギー関数の抽出形式において、既存の手法と異なる。<br />
アプローチとしては(Jurrus et al., 2006)と関連しており、彼らの研究によるとkalman filterに基づくpropagation schemeを使用し、オブジェクトの表現にレベル集合よりも明示的な境界を使用していた。</p>
<p><strong>確率的フレームワーク</strong><br />
統計モデル<br />
<img src='http://s.wordpress.com/latex.php?latex=I_n&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='I_n' title='I_n' class='latex' />を画像<img src='http://s.wordpress.com/latex.php?latex=n&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='n' title='n' class='latex' />、<img src='http://s.wordpress.com/latex.php?latex=%5Cphi_n&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\phi_n' title='\phi_n' class='latex' />を対応するセグメンテーションとする。<br />
すでにセグメント化が済んだ前の画像が存在し、<img src='http://s.wordpress.com/latex.php?latex=%5Cphi%29%7Bn-1%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\phi){n-1}' title='\phi){n-1}' class='latex' />は既知とする。<br />
我々は、<img src='http://s.wordpress.com/latex.php?latex=I_n&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='I_n' title='I_n' class='latex' />と<img src='http://s.wordpress.com/latex.php?latex=%5Cphi_%7Bn-1%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\phi_{n-1}' title='\phi_{n-1}' class='latex' />が与えられたとき、最も確率の高いセグメンテーション<img src='http://s.wordpress.com/latex.php?latex=%5Cphi_n&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\phi_n' title='\phi_n' class='latex' />を見つけたい。<img src='http://s.wordpress.com/latex.php?latex=P%28%5Cphi_n%7CI_n%2C%5Cphi_%7Bn-1%7D%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='P(\phi_n|I_n,\phi_{n-1})' title='P(\phi_n|I_n,\phi_{n-1})' class='latex' />を最大化。(Cremers et al., 2006)<br />
Bayes&#8217; Ruleより、<br />
<img src='http://s.wordpress.com/latex.php?latex=%20%20P%28%5Cphi_n%7CI_n%2C%20%5Cphi_%7Bn-1%7D%29%20%5Cpropto%20P%28I_n%7C%5Cphi_n%2C%20%5Cphi_%7Bn-1%7D%29P%28%5Cphi_n%7C%5Cphi_%7Bn-1%7D%29%20%20&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='  P(\phi_n|I_n, \phi_{n-1}) \propto P(I_n|\phi_n, \phi_{n-1})P(\phi_n|\phi_{n-1})  ' title='  P(\phi_n|I_n, \phi_{n-1}) \propto P(I_n|\phi_n, \phi_{n-1})P(\phi_n|\phi_{n-1})  ' class='latex' /><br />
を得る。<br />
<img src='http://s.wordpress.com/latex.php?latex=P%28%5Cphi_n%7C%5Cphi_%7Bn-1%7D%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='P(\phi_n|\phi_{n-1})' title='P(\phi_n|\phi_{n-1})' class='latex' />は、可能なセグメンテーション<img src='http://s.wordpress.com/latex.php?latex=%5Cphi_n&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\phi_n' title='\phi_n' class='latex' />についての事前分布priorとみなせることができ、隣接する画像間のオブジェクトの連続性を確証する指標として使用できる。<br />
これは、複数の画像にかけて構造をトレースすることを助ける。<br />
加えて、滑らかな輪郭の支持やセグメント化されたオブジェクトの形状についての事前知識としても使用される。<br />
実際は、手作業でラベルづけされた画像から学習されるが、訓練集合が十分でないことから、事前分布のための関数形式を選択する必要があった。</p>
<p>単純化のために、画像<img src='http://s.wordpress.com/latex.php?latex=I_n&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='I_n' title='I_n' class='latex' />は前画像<img src='http://s.wordpress.com/latex.php?latex=%5Cphi_%7Bn-1%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\phi_{n-1}' title='\phi_{n-1}' class='latex' />と独立しているものとして、現在のセグメントを<img src='http://s.wordpress.com/latex.php?latex=%5Cphi_n&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\phi_n' title='\phi_n' class='latex' />とする。<br />
独立性より<img src='http://s.wordpress.com/latex.php?latex=P%28I_n%7C%5Cphi_n%29%3DP%28I_n%7C%5Cphi_n%2C%5Cphi_%7Bn-1%7D%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='P(I_n|\phi_n)=P(I_n|\phi_n,\phi_{n-1})' title='P(I_n|\phi_n)=P(I_n|\phi_n,\phi_{n-1})' class='latex' /><br />
与えられた符号付き距離<img src='http://s.wordpress.com/latex.php?latex=d&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='d' title='d' class='latex' />に対し、<img src='http://s.wordpress.com/latex.php?latex=P%28I_n%28x%29%7C%5Cphi_n%28x%29%3Dd%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='P(I_n(x)|\phi_n(x)=d)' title='P(I_n(x)|\phi_n(x)=d)' class='latex' />が、外部(あるいは内部。<img src='http://s.wordpress.com/latex.php?latex=%5Cphi%28x%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\phi(x)' title='\phi(x)' class='latex' />の符号による)のすべてのピクセルの強度に対する確率分布を与え、closest boundaryまでの距離<img src='http://s.wordpress.com/latex.php?latex=d&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='d' title='d' class='latex' />を与える。<br />
簡便のため、現在の画像<img src='http://s.wordpress.com/latex.php?latex=%5Cphi_n&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\phi_n' title='\phi_n' class='latex' />を<img src='http://s.wordpress.com/latex.php?latex=%5Cphi&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\phi' title='\phi' class='latex' />、一つ前の画像<img src='http://s.wordpress.com/latex.php?latex=%5Cphi_%7Bn-1%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\phi_{n-1}' title='\phi_{n-1}' class='latex' />を<img src='http://s.wordpress.com/latex.php?latex=%5Cphi_0&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\phi_0' title='\phi_0' class='latex' />と表記する。</p>
<p>事後確率 <img src='http://s.wordpress.com/latex.php?latex=P%28%5Cphi%7CI%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='P(\phi|I)' title='P(\phi|I)' class='latex' /> 最大化は、その負のlogの最小化と同値。<br />
エネルギー関数は、<br />
<img src='http://s.wordpress.com/latex.php?latex=E%28%5Cphi%7CI%29%20%3D%20-%7B%5Crm%20log%7D%28P%28I%7C%5Cphi%29%29%20-%20%7B%5Crm%20log%7D%28P%28%5Cphi%7C%5Cphi_0%29%29%20%3D%20E_I%20%2B%20E_%5Cpi&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='E(\phi|I) = -{\rm log}(P(I|\phi)) - {\rm log}(P(\phi|\phi_0)) = E_I + E_\pi' title='E(\phi|I) = -{\rm log}(P(I|\phi)) - {\rm log}(P(\phi|\phi_0)) = E_I + E_\pi' class='latex' /><br />
これを最小化する。<br />
エネルギーの合計は画像の独立部分<img src='http://s.wordpress.com/latex.php?latex=E_I&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='E_I' title='E_I' class='latex' />と事前独立部分<img src='http://s.wordpress.com/latex.php?latex=E_%5Cpi&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='E_\pi' title='E_\pi' class='latex' />の和で表される。<br />
以下、<img src='http://s.wordpress.com/latex.php?latex=P%28I%7C%5Cphi%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='P(I|\phi)' title='P(I|\phi)' class='latex' />と<img src='http://s.wordpress.com/latex.php?latex=P%28%5Cphi%7C%5Cphi_0%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='P(\phi|\phi_0)' title='P(\phi|\phi_0)' class='latex' />について詳細に特徴づけ、データからnon-parametricに分布を学習するような可能な代案についてもみる。</p>
<p><strong>単純なアルゴリズム</strong><br />
ピクセル強度I(x)の分布には、平均<img src='http://s.wordpress.com/latex.php?latex=%5Calpha%5Cphi%28x%29-%5Cbeta&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\alpha\phi(x)-\beta' title='\alpha\phi(x)-\beta' class='latex' />と分散<img src='http://s.wordpress.com/latex.php?latex=%5Csigma%5E2&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\sigma^2' title='\sigma^2' class='latex' />の正規分布を仮定、</p>
]]></content:encoded>
			<wfw:commentRss>http://eisukeito.com/blog/?feed=rss2&#038;p=275</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>[BCI] Classification of covariance matrices using a Riemannian-based kernel for BCI applications</title>
		<link>http://eisukeito.com/blog/?p=193</link>
		<comments>http://eisukeito.com/blog/?p=193#comments</comments>
		<pubDate>Thu, 21 Mar 2013 12:18:20 +0000</pubDate>
		<dc:creator><![CDATA[eisuke]]></dc:creator>
				<category><![CDATA[Algorithms]]></category>
		<category><![CDATA[Brain-Computer Interfaces]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[Paper]]></category>

		<guid isPermaLink="false">http://eisukeito.com/blog/?p=193</guid>
		<description><![CDATA[概要 空間分散共分散行列を特徴量として使用することは、BCIの運動想起によるEEGの識別で研究されている。新しいカーネルは対称正定値行列のリーマン幾何による接続を確立することにより導出される。過去のBCIコンペのデータに [&#8230;]]]></description>
				<content:encoded><![CDATA[<p><strong>概要</strong><br />
空間分散共分散行列を特徴量として使用することは、BCIの運動想起によるEEGの識別で研究されている。新しいカーネルは対称正定値行列のリーマン幾何による接続を確立することにより導出される。過去のBCIコンペのデータに対し、異なるカーネルをSVMとの組み合わせでテストした。この新しいアプローチが、従来からの空間フィルタリングによるアプローチに代わるような性能であることを示す。</p>
<p><strong>キーワード</strong><br />
Brain-Computer Interface, 分散共分散行列, カーネル, Support Vector Machine, リーマン幾何</p>
<p><strong>内容<br />
</strong>運動想起(MI; motor imagery)は、実際の身体の動きをイメージすることで、結果として、感覚運動野sensorimotor cortexの広い皮質領域で特定の脳波の周波数帯(μ、β周波数帯)においてERS; event related synchronization / ERD; event related desynchronizationが起きる。 (Pfurtscheller and Lopes da Silva, 1999)</p>
<p>運動想起に基づくEEG識別のスタンダートなアプローチとしては、バンドパスフィルタリング、空間フィルタリングをして線形分類を行う方法が用いられ、分類にはFisherのLDA; linear discriminat analysisが用いられる。</p>
<p>空間フィルタリングの手法としては、CSP; common spatial pattern (Ramoser, 2000)がよく使用される。<br />
このアルゴリズムは、データ依存の次元削減法とみなすことができ、2つのコンディションの分散の差を強調する目的で使用される。<br />
その際は、分散共分散行列はユークリッド空間で扱われ、SPD; symmetric positive definite対称正定値行列の空間の歪みは考慮されない。</p>
<p>EEGの分類のためのリーマン幾何を考慮するシンプルな方法<br />
このアプローチは、過去にレーダー信号と画像処理においてうまくいった。<br />
その上、新しいカーネルはSPD行列のリーマン幾何での接続をすることによって導出できる。<br />
似たようなアプローチ (Harandi et al., 2012; Wang et al., 2010)<br />
リーマン計量に依存する異なるカーネルの定義も導出</p>
<p>SVMと組み合わせてテスト<br />
カーネルトリックが適用できる他の分類法 ロジスティック回帰 logistic regression も行った。<br />
現在の手法よりも優れているのは、空間フィルタリングをする必要がなく、直接適用できること。(Barachant et al., 2010)</p>
<p><strong>対称正定値行列に対する新しいカーネル</strong><br />
EEG信号は、試行 trials とよばれる短い時間セグメントで解析される。<br />
入力信号 <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20X%7D%20%5Cin%20%7B%5Cmathbb%20R%7D%5E%7BE%5Ctimes%20T%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf X} \in {\mathbb R}^{E\times T}' title='{\mathbf X} \in {\mathbb R}^{E\times T}' class='latex' /> (チャンネル数<img src='http://s.wordpress.com/latex.php?latex=E&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='E' title='E' class='latex' /> x サンプル数<img src='http://s.wordpress.com/latex.php?latex=T&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='T' title='T' class='latex' />の行列)<br />
異なるEEG信号にバンドパスフィルタを適用すると仮定、μ(8-14Hz)とβ(14-30Hz) バンドを考慮して8-35Hzのバンドパスフィルタを適用。<br />
2クラス分類  <img src='http://s.wordpress.com/latex.php?latex=y_p%20%5Cin%20%5C%7B-1%2C%20%2B1%5C%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='y_p \in \{-1, +1\}' title='y_p \in \{-1, +1\}' class='latex' /></p>
<p>EEGのランダム信号の空間分散共分散行列はExEのサンプル分散共分散行列(SCM)<br />
<img src='http://s.wordpress.com/latex.php?latex=C_p%20%3D%20%5Cfrac%7B1%7D%7BT-1%7D%20%7B%5Cmathbf%20X_p%7D%7B%5Cmathbf%20X%5ET_p%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='C_p = \frac{1}{T-1} {\mathbf X_p}{\mathbf X^T_p}' title='C_p = \frac{1}{T-1} {\mathbf X_p}{\mathbf X^T_p}' class='latex' /><br />
によって計算。<br />
SPD ExE行列空間をP(E)をする。<br />
SCMは外れ値 outlier に敏感なため、robustな分散共分散行列推定か正則化が推定法を改良するために適用可能</p>
<p>空間フィルタリングを次元削減と異なる運動クラスのEEG試行同士の分散比を強調するために使用するのはMI-basedなBCIでは一般的 (Blankertz et al., 2008)</p>
<p>空間フィルタ後の分散の対数 log-variance は線形分類器(LDA)への入力として使用される。</p>
<p>CSP (Ramoser et al., 2000) は2クラスの運動想起タスクのEEGのクラス分類のための特徴量抽出のための手法としてうまくいっている<br />
この手法は２つのコンディションで得られるクラス内分散共分散行列を同時対角化するもの</p>
<p>提案手法では、EEG-basedなBCIの信号分類のための入力として、空間分散共分散行列を直接利用</p>
<p>分散共分散行列を識別で特徴量として使用する場合、自然な選択はこの量をベクトルとして利用するためにベクトル化することであり、それによりvector-basedな分類アルゴリズムが使用可能<br />
対称行列であることを利用して、半ベクトル化演算子を考える<br />
Cの上三角行列を<br />
<img src='http://s.wordpress.com/latex.php?latex=%20%5Cfrac%7B%28E%2B1%29E%7D%7B2%7D%20&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt=' \frac{(E+1)E}{2} ' title=' \frac{(E+1)E}{2} ' class='latex' /><br />
のカラムベクトルへ変換<br />
<img src='http://s.wordpress.com/latex.php?latex=%20vect%28%7B%5Cmathbf%20C%7D%29%20%3D%20%5Cleft%5B%20C_%7B%281%2C1%29%7D%2C%20%7B%5Csqrt%202%7DC_%7B%281%2C2%29%7D%2C%20C_%7B%282%2C2%29%7D%2C%20%7B%5Csqrt%202%7DC_%7B%281%2C3%29%7D%2C%20%7B%5Csqrt%202%7DC_%7B%282%2C3%29%7D%2C%20C_%7B%283%2C3%29%7D%2C%20%5Cdots%20%2C%20C_%7B%28E%2CE%29%7D%20%5Cright%5D%5ET%20&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt=' vect({\mathbf C}) = \left[ C_{(1,1)}, {\sqrt 2}C_{(1,2)}, C_{(2,2)}, {\sqrt 2}C_{(1,3)}, {\sqrt 2}C_{(2,3)}, C_{(3,3)}, \dots , C_{(E,E)} \right]^T ' title=' vect({\mathbf C}) = \left[ C_{(1,1)}, {\sqrt 2}C_{(1,2)}, C_{(2,2)}, {\sqrt 2}C_{(1,3)}, {\sqrt 2}C_{(2,3)}, C_{(3,3)}, \dots , C_{(E,E)} \right]^T ' class='latex' /><br />
一般性を失わないために、<img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20C%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf C}' title='{\mathbf C}' class='latex' />の非対角成分に対して係数<img src='http://s.wordpress.com/latex.php?latex=%7B%5Csqrt%202%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\sqrt 2}' title='{\sqrt 2}' class='latex' />を掛ける。これにより<img src='http://s.wordpress.com/latex.php?latex=%5C%7C%7B%5Cmathbf%20C%7D%5C%7C_%7BF%7D%20%3D%20%5C%7C%7B%5Crm%20vect%28%7B%5Cmathbf%20C%7D%29%7D%5C%7C_2&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\|{\mathbf C}\|_{F} = \|{\rm vect({\mathbf C})}\|_2' title='\|{\mathbf C}\|_{F} = \|{\rm vect({\mathbf C})}\|_2' class='latex' /><br />
<img src='http://s.wordpress.com/latex.php?latex=%7B%5Crm%20unvect%7D%28%7B%5Cmathbf%20x%7D%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\rm unvect}({\mathbf x})' title='{\rm unvect}({\mathbf x})' class='latex' />により反対の操作を定義<br />
こういうアプローチは (Farquhar, 2009; Reuderink et al., 2011)でやってる<br />
線形分類にかけるCSPライクな空間フィルタリングは、分類のための特徴量として分散共分散のベクトル化を考えることで高次元空間において単一のステップとなることを示唆<br />
実際、分類スコア関数 <img src='http://s.wordpress.com/latex.php?latex=h%28.%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='h(.)' title='h(.)' class='latex' /> は、空間フィルタリング後のEEG信号の時間分散 <img src='http://s.wordpress.com/latex.php?latex=%5Csigma%5E2&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='\sigma^2' title='\sigma^2' class='latex' /> に線形分類器 <img src='http://s.wordpress.com/latex.php?latex=%28%7B%5Cmathbf%20u%7D%2C%20b%29&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='({\mathbf u}, b)' title='({\mathbf u}, b)' class='latex' /> と適用することで得られる。<br />
空間フィルタ <img src='http://s.wordpress.com/latex.php?latex=%7B%5Cmathbf%20W%7D&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt='{\mathbf W}' title='{\mathbf W}' class='latex' /> を用いると、<br />
<img src='http://s.wordpress.com/latex.php?latex=%20h%28%7B%5Cmathbf%20%5Csigma%5E2%7D%29%20%3D%20%5Clangle%20%7B%5Cmathbf%20u%7D%2C%20%7B%5Cmathbf%20%5Csigma%5E2%7D%20%5Crangle%20%2B%20b%20%3D%20%5Csigma_k%20u_k%20%7B%5Cmathbf%20w_k%5ET%20C%20w_k%7D%20%2B%20b%20%3D%20%7B%5Crm%20tr%7D%28%7B%5Crm%20diag%7D%28%7B%5Cmathbf%20u%7D%29%20%7B%5Cmathbf%20W%5ET%20C%20W%7D%29%20%2B%20b%20%3D%20%5Clangle%20%7B%5Cmathbf%20U%7D%2C%20%7B%5Cmathbf%20C%7D%20%5Crangle_%7BF%7D%20%2B%20b%20&#038;bg=ffffff&#038;fg=000000&#038;s=0' alt=' h({\mathbf \sigma^2}) = \langle {\mathbf u}, {\mathbf \sigma^2} \rangle + b = \sigma_k u_k {\mathbf w_k^T C w_k} + b = {\rm tr}({\rm diag}({\mathbf u}) {\mathbf W^T C W}) + b = \langle {\mathbf U}, {\mathbf C} \rangle_{F} + b ' title=' h({\mathbf \sigma^2}) = \langle {\mathbf u}, {\mathbf \sigma^2} \rangle + b = \sigma_k u_k {\mathbf w_k^T C w_k} + b = {\rm tr}({\rm diag}({\mathbf u}) {\mathbf W^T C W}) + b = \langle {\mathbf U}, {\mathbf C} \rangle_{F} + b ' class='latex' /></p>
<p>SVMによる分類への適用</p>
<p>結果とまとめ</p>
]]></content:encoded>
			<wfw:commentRss>http://eisukeito.com/blog/?feed=rss2&#038;p=193</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Algorithms for manifold learning (L.Cayton, 2005)</title>
		<link>http://eisukeito.com/blog/?p=111</link>
		<comments>http://eisukeito.com/blog/?p=111#comments</comments>
		<pubDate>Thu, 27 Dec 2012 23:31:03 +0000</pubDate>
		<dc:creator><![CDATA[eisuke]]></dc:creator>
				<category><![CDATA[Paper]]></category>

		<guid isPermaLink="false">http://eisukeito.com/blog/?p=111</guid>
		<description><![CDATA[Manifold learning (多様体学習)のAlgorithmを比較した論文です。 多様体(manifold)とは、局所的にはユークリッド空間とみなせる位相空間のことをいいます。 例えば、地球は丸いので、地球の表 [&#8230;]]]></description>
				<content:encoded><![CDATA[<p>Manifold learning (多様体学習)のAlgorithmを比較した論文です。</p>
<p><strong>多様体</strong>(manifold)とは、<strong>局所的には</strong>ユークリッド空間とみなせる位相空間のことをいいます。</p>
<p>例えば、地球は丸いので、地球の表面すべてを一度に２次元の地図で表現しようとすると、繋ぎ目で重複が現れたり歪みが生じたりします。</p>
<p>しかし、局所的にみることによって２次元座標で地図の表現ができるようになります。</p>
<p>あるデータにも同じことが言えて、ものすごく高次元な空間にあるデータでも、実質的には低次元で表現できる場合があります。</p>
<blockquote><p>if data lies in a 100-dimensional space, one cannot get an intuitive feel for what the data looks like.</p></blockquote>
<p>4次元以上の高次元のデータの場合、視覚化できないので実際にデータがどうなっているか分かりにくかったり、コンピュータで計算をするのに、ものすごく時間がかかることがあります。</p>
<p>機械学習やデータマイニングでは、不要な情報を捨てて、必要な情報を抽出することはいろいろな意味で重要です。<br />
高次元のデータをうまく表現できるように低次元のデータに変換することを<strong>次元圧縮</strong>(dimension reduction)といいます。</p>
<p>(書きかけ)</p>
<p>多様体の定義</p>
<p><strong>PCA</strong></p>
<p>線形部分空間への射影のみ</p>
<ul>
<li>Isomap</li>
<li>Locally Linear Embedding (LLE)</li>
<li>Laplacian Eigenmaps</li>
<li>Semidefinite Embedding (SDE)</li>
</ul>
<p><a href="http://people.kyb.tuebingen.mpg.de/lcayton/resexam.pdf  " target="_blank">Algorithms for manifold learning (L.Cayton, 2005)</a></p>
<p>&nbsp;</p>
]]></content:encoded>
			<wfw:commentRss>http://eisukeito.com/blog/?feed=rss2&#038;p=111</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
