見出し画像

【脳波解析】ラプラシアンフィルタ

 本ページでは「Analyzing Neural Time Series Data Theory and Practice」(Mike X. Cohen and Jordan Grafman)のChapter22をベースに、ラプラシアンフィルタについて説明をしていきます。

前回のnoteはこちら↓

また、今回のnoteをまとめる上で、弊ラボの先輩の坂本嵩さんの以下のスライドを超絶参考にしています!そちらのチェックも是非!!

ラプラシアンフィルタ

 ラプラシアンフィルタとは、一言で言うと、空間におけるハイパスフィルタのことで、チャンネル特異の狭い活動を取り出すことが出来ます。周波数フィルタでは特定の周波数情報を目立たせることができるのに対し、空間フィルタは特定の空間情報を目立たせることが出来ます。また、頭皮全体に渡る活動を減衰させることができ、距離によるコネクティビティの強度を除きたいとき、特に、高周波での減衰を避けたいときに使えます。
 ラプラシアンフィルタの計算方法はちょっと複雑です。簡単な流れとして、Perrin et al.の方法によると、1) 重み行列G・Hを計算、2) G行列をデータに適用、3) H行列をかけてラプラシアンを計算、という順番になります、それぞれの計算方法は以下の通りです。

画像1

ここで、
i,j:電極のインデックス
cosdist_(ij):電極iと電極jの位置ベクトルのコサイン類似度≒内積≒距離
m:定数。4が推奨。小さいと高周波数情報のみを通すようになる
P_n(x):ルジャンドル多項式
n:ルジャンドル多項式の次数。7が推奨。
λ:Gの対角成分に足す平滑化パラメーター (10-5〜10-6推奨。大きいと平滑に、小さいと局所的に。
です。また、コサイン類似度は、内積を-1 ~ 1 にスケーリングしたものです。ここで、G行列・H行列はルジャンドル多項式の次数で、次数を増やすことにより重みが下がり、空間周波数上がります。一方、高すぎると個別性が上がり共通性が下がるため、被験者間平均・比較が困難になるので注意する必要があります(著者は7を推奨しています)。また、空間サンプリング周波数とは、電極数より空間周波数が高くなる限度と一致するため、64chだと10くらいまで情報が増え、 100chだと13-15まで情報を増やすことが出来ます。

ラプラシアンフィルタのメリット/デメリット

 ラプラシアンフィルタにはたくさんもメリットがあります。
1) 電極ベースの空間局所度が上昇
 空間局所度をあげる方法として、ラプラシアン以外にも、PLIという方法があります。PLIでは0/πの位相を無視するため、容積伝導によるものでない信号を消す可能性がありますが、ラプラシアンは空間ベースなので無駄に信号を消す可能性を下げることが出来ます。
2) Volume-conduction ノイズが減少(散る)
3) リファレンス電極に依らない
4) パラメータ / 仮定が少ない (↔活動源推定)
 特に、100ch以上の場合、超高周波成分が除けたりします。さらに、コネクティビティ解析におけるノイズ削減ができるというメリットもあり、その際はICAの後にラプラシアンをかけましょう。

 一方、こんなデメリットもあります。
1) 頭蓋全体に渡る活動↓
例えば、P3bなど視覚に関わるところは見れません。
2) 脳回表面の活動のみ取れる
3) 深い or 振幅が超同期している活動源は取れない

ラプラシアンフィルタによる問題を回避するため、以下のような注意点があります。
1) 電極が多くないといけない
 空間フィルタであるため、サンプリング点は多くないといけません。最低64ch、できれば100ch以上が望ましいです。ただし、一部の電極に絞って、ノイズ除去のために行うこともあります。
2) 時間データにしかかけちゃダメ
 時間周波数解析の後にかけてはいけません。一部の周波数帯、例えば、α帯だけとかはダメです。ただし、ERPは時間データのままなので大丈夫です。
3) 一部の条件 / 被験者を抜き出すのはダメ
 サンプリング数も減っちゃいますよね。

ラプラシアンフィルタによる空間局所度

 ラプラシアンフィルタにより、電極ベースの空間局所度は上がります。これにより、高周波及び低周波だけに着目した場合では明らかでない活動が分かります。また、空間局所度上昇によるデータの解釈の仕方には3通りが考えられます。
1) 生データ/ラプラシアンどっちでも上昇
 もともと見えてた信号です。
2) 生データで変化なし/ラプラシアンで上昇
 隠れてた信号が現れました。
3) 生データで上昇/ラプラシアンで変化なし
 容積伝導ノイズまたは、全体的な活動を示しています。


最後に、このノートにスキを押してくれると、とても嬉しい&更新のモチベが爆上がりします!ここまで読んでくださり、ありがとうございました。
<謝辞>
このnoteを書く上で、弊ラボの坂本嵩さんにご協力いただきました。ありがとうございます。

この記事が気に入ったらサポートをしてみませんか?