【研究】RNA-seq:前処理編まとめv20240307.1
こんにちは、あるいは、こんばんは。
RNA-seqの生データをどのように処理してから、データ解析に移れば良いのか悩まれる方も多いと思います。
これまでに試行してきました内容を整理した記事をメモとして残しておきたいと思います。
いつの日か、どこかのだれかの参考にでもなれば幸いです。
PCスペック
Rosetta 2でターミナル.appを動かします。
設定方法は以前の記事を参考にしていただけますと幸いです。
検索すると、もっと分かりやすい情報があると思います。
環境構築
Rosetta 2でターミナル.appを使用するよ!
ターミナルアプリを起動し、以下のコードを入力して、「i386」と返ってくれば、Intel CPUを使用していることと同じ挙動で実行できます。
arch
i386
フォルダの準備
処理過程で必要となるファイルを格納するためのフォルダを作成しておきます。
わたしのフォルダの階層構造は以下のとおりです。
## Homebrewでtreeをインストール
brew install tree
## treeで階層構造を表示
tree /Volumes/4T/RNAseq
/Volumes/4T/RNAseq
└── rawdata
├── Sample01_1.fastq.gz
├── Sample01_2.fastq.gz
...省略しました...
├── Sample18_1.fastq.gz
├── Sample18.fastq.gz
├── JN########_18samples_md5sum_DownloadLink.txt
├── md5sum.txt
└── sample_list.txt
2 directories, 39 files
「/Volumes/4T/RNAseq」に以下の4つのフォルダを作成します。
以下のコードを実行します。
# ディレクトリのリスト
directories=("downloads" "trimmed" "bamfiles" "featureCounts")
# ディレクトリの存在をチェックして再帰的に作成する関数
check_and_create_directory() {
if [ ! -d "$1" ]; then
echo "Creating directory: $1"
mkdir -p "$1"
else
echo "Directory already exists: $1. Nothing to do."
fi
}
# リスト内の各ディレクトリに対して処理を行う
for dir in "${directories[@]}"; do
check_and_create_directory "$dir"
done
# ディレクトリの内容を再帰的に表示する
tree -L 1 /Volume
Creating directory: downloads
Creating directory: trimmed
Creating directory: bamfiles
Creating directory: featureCounts
/Volumes/4T/RNAseq
├── bamfiles
├── downloads
├── featureCounts
├── rawdata
└── trimmed
6 directories, 0 files
「rawdata」と同じ階層にフォルダを作成することができました。
Directory already exists: downloads. Nothing to do.
Directory already exists: trimmed. Nothing to do.
Directory already exists: bamfiles. Nothing to do.
Directory already exists: featureCounts. Nothing to do.
conda(mamba)をインストール
今回、外付けのSSD(4Tと名付けました!)にデータを格納しています。
以前のSDXC 1TBよりも安定して高速に処理できることを願っています。
というのも、途中で処理が止まってしまったり、明らかに処理が遅くなっていたりすることがありました。
それが原因かはっきりしませんが、出来上がった「featureCount.txt」が他の研究者と一致していませんでした。
さっそく、「Mambaforge3」を導入します。
過去の環境が残っているようでしたら、使用してもしなくても大丈夫です。
調子が悪いようでしたら、いっそのことデリりましょう。
Rosetta2から起動したターミナルに以下のコードを入力します。
mambaforgeの再構築の準備(まず削除)
# デリる(削除する)
rm -rf ~/mambaforge/
vi ~/.bashrc
表示される画面にて「dd」「dd」…と押していき、記入された情報を「行」単位で削除していきます。
全て消し去ったら、「:wq」(コロン→w→qの順)です。
最後に以下のコードを実行してリセットが完了するっぽいです。
source ~/.bashrc
mambaforgeの再導入
ワーキングディレクトリは、好きな場所で大丈夫です。
今回は、外付けSSD 4T「/Volumes/4TB/RNAseq/downloads」というフォルダに、Mambaforge3.shというファイルを保存し、実行します。
# ワーキングディレクトリの変更: ここにダウンロードされます
cd /Volumes/4T/RNAseq/downloads
# GitHubから「Mambaforge3.sh」としてダウンロードします
wget -O Mambaforge3.sh https://github.com/conda-forge/miniforge/releases/latest/download/Mambaforge-MacOSX-x86_64.sh
# インストールします
bash Mambaforge3.sh -b -u
# パスを通します
echo ". ~/mambaforge/etc/profile.d/conda.sh" >> ~/.bashrc && \
echo "conda activate base" >> ~/.bashrc
source ~/.bashrc
もし、「wget」がないなどのエラーがありましたら、以前の記事を参考にしてHomebrewを導入していただければと思います。
(オプション)仮想環境の構築
Anacondaの仮想環境を構築しておくと、不具合があったときに削除したり、別の仮想環境で実行することができると思います。
以下のコードを実行します。
# 仮想環境の構築
conda create -n newenv
# アクティベートすることで、仮想環境で実行できます
conda activate rnaseq
プロンプトの冒頭が
(base)→(newenv)になっていれば
仮想環境がアクティベートされています。
次回から、「conda activate newenv」を実行しましょう!
chnannel設定
Bioconda推奨の設定をしておきます。以下のコードを順番に実行します。
デフォルトで設定されているようですので、省略可能と思われます。
conda config --add channels defaults
conda config --add channels bioconda
conda config --add channels conda-forge
conda config --set channel_priority strict
ツールのインストール
一連の作業で使用するツールをインストールします。
# mambaのアップデート
conda install -c conda-forge mamba -y
# インストール(subreadのみバージョンを指定しておきます)
mamba install pigz -y
mamba install -c bioconda seqkit trimmomatic hisat2 samtools subread=1.5.2 -y
subreadというのは、featureCountによるカウントを行うために必要なものです。最新バージョンではエラーが起こり、解決が難しかったため「1.5.2」を指定しています。
解析前に確認!(20240307追記)
作業中断後に再解析する場合
上述の環境構築を行い、後述の解析を進めるうちに、作業の中断やPCの再起動を余儀なくされた場合には、以下のコードを実行してから作業を再開しましょう。
source ~/.bashrc
conda activate newenv
コマンド(パッケージ)がないとエラーが表示される場合
処理中に必要となるツールがインストールされていない場合には、上述の仮想環境をアクティベートしてから、インストールし直しましょう。
どうしても作業の再開ができない場合
そんなこともあります!
原因解明に時間を取られても良くないと思いますので、思い切ってデリ(削除)ってください(上述)。
もうちょっとソフトにデリる(削除する)のであれば、conda仮想環境(newenv)を削除して、再構築しましょう。
その場合は、以下のコードをお試し下さい。
# アクティベート中のconda仮想環境の中止
conda deactivate
# 仮想環境(newenvの場合)を削除
mamba remove -n newenv --all
conda仮想環境の構築(上述)から再開しましょう。
FASTAの簡易解析
seqkitを用いて、FASTAの簡易的な解析を行います。
以下のコードを実行します。
# ワーキングディレクトリ
cd /Volumes/4T/RNAseq/rawdata
# seqkitの実行
seqkit stats *.fastq.gz
以下が表示されます。36データの解析に約30分かかりました。
念の為、コピーしてテキストデータとして保存しておきます。
トリミング
Trimmomatic
Trimmomaticを用いてアダプター配列のトリミングを行います。
アダプター配列を指定して処理を進めることになります。
ますは必要となるファイルのダウンロードです。
以下のコードを実行します。
# ワーキングディレクトリの変更
cd /Volumes/4T/RNAseq/rawdata/downloads
# ダウンロードと解凍
wget http://www.usadellab.org/cms/uploads/supplementary/Trimmomatic/Trimmomatic-0.39.zip
unpigz Trimmomatic-0.39.zip
Archive: Trimmomatic-0.39.zip
creating: Trimmomatic-0.39/
inflating: Trimmomatic-0.39/LICENSE
inflating: Trimmomatic-0.39/trimmomatic-0.39.jar
creating: Trimmomatic-0.39/adapters/
inflating: Trimmomatic-0.39/adapters/NexteraPE-PE.fa
inflating: Trimmomatic-0.39/adapters/TruSeq2-PE.fa
inflating: Trimmomatic-0.39/adapters/TruSeq2-SE.fa
inflating: Trimmomatic-0.39/adapters/TruSeq3-PE-2.fa
inflating: Trimmomatic-0.39/adapters/TruSeq3-PE.fa
inflating: Trimmomatic-0.39/adapters/TruSeq3-SE.fa
解凍後に幾つかファイルが格納されていることが確認できます。
Trimmomaticを実行します(約5時間/36データ)。
# ワーキングディレクトリの変更
cd /Volumes/4T/RNAseq/rawdata
# サンプルリストとアダプター配列情報のパス
SAMPLE_LIST_FILE=sample_list.txt
ILLUMINACLIP_FILE=../downloads/Trimmomatic-0.39/adapters/TruSeq2-PE.fa:2:30:10
## trimmomaticの実行
awk 'NR > 1 {print $2}' "$SAMPLE_LIST_FILE" | while IFS= read -r SAMPLE; do
echo "Processing sample: $SAMPLE"
trimmomatic PE -threads 12 \
-trimlog ../trimmed/${SAMPLE}.txt \
${SAMPLE}_1.fastq.gz ${SAMPLE}_2.fastq.gz \
../trimmed/paired_${SAMPLE}_1.trim.fastq.gz \
../trimmed/unpaired_${SAMPLE}_1.trim.fastq.gz \
../trimmed/paired_${SAMPLE}_2.trim.fastq.gz \
../trimmed/unpaired_${SAMPLE}_2.trim.fastq.gz \
ILLUMINACLIP:ILLUMINACLIP_FILE
echo "Sample $SAMPLE processing complete."
done
マッピング
HISAT2
HISAT2を用いてリードデータをマッピングします。
まずリファレンスゲノム配列のインデックスを準備しておきます。
作成するディレクトリは、リードデータと同じ場所でも大丈夫です。
今回は「/Volumes/4T/RNAseq/downloads」に格納しています。
以下のコードを実行します(約40分)。
# ワーキングディレクトリの変更
cd "/Volumes/4T/RNAseq/downloads"
# リファレンスゲノム配列のダウンロードと解凍
wget https://ftp.ncbi.nlm.nih.gov/genomes/all/GCF/000/001/635/GCF_000001635.27_GRCm39/GCF_000001635.27_GRCm39_genomic.fna.gz
unpigz -d GCF_000001635.27_GRCm39_genomic.fna.gz
## インデックスの作成
hisat2-build GCF_000001635.27_GRCm39_genomic.fna GCF_000001635.27_GRCm39_genomic_index -p 12
以下の8つのインデックスが出力されます。
作成したインデックスを使用して、リードデータをマッピングします。
以下のコードを実行します(時間がかかるためO/Nか日を改めて)。
# ワーキングディレクトリの変更
cd /Volumes/4T/RNAseq/rawdata
# サンプルリストとインデックス情報のパス
SAMPLE_LIST_FILE=sample_list.txt
INDEX=../downloads/GCF_000001635.27_GRCm39_genomic_index
# HISAT2(マッピング)の実行
awk 'NR > 1 {print $2}' "$SAMPLE_LIST_FILE" | while IFS= read -r SAMPLE; do
echo "Processing sample: $SAMPLE"
FILE1=../trimmed/paired_${SAMPLE}_1.trim.fastq.gz
FILE2=../trimmed/paired_${SAMPLE}_2.trim.fastq.gz
hisat2 -p 1 -x ${INDEX} -1 ${FILE1} -2 ${FILE2} \
| samtools sort -@ 1 > ../bamfiles/${SAMPLE}_sorted.bam
samtools index -@ 1 ../bamfiles/${SAMPLE}_sorted.bam
echo "Sample $SAMPLE processing complete."
done
カウント
featureCounts(subread=1.5.2)
featureCountsを用いてマッピングとソートされたBAMファイルから、リードカウントの情報を取得していきます。
まずアノテーション情報のデータを準備しておきます。
格納するディレクトリは、好きな場所で大丈夫です。
今回は「/Volumes/4T/RNAseq/downloads」に格納しています。
以下のコードを実行します。
# ワーキングディレクトリの変更
cd /Volumes/4T/RNAseq/downloads
# アノテーション情報のデータのダウンロードと解凍
wget https://ftp.ncbi.nlm.nih.gov/genomes/all/GCF/000/001/635/GCF_000001635.27_GRCm39/GCF_000001635.27_GRCm39_genomic.gtf.gz
unpigz -d GCF_000001635.27_GRCm39_genomic.gtf.gz
アノテーション情報とマッピング・ソートしたデータを使用してカウント情報を整理します。
以下のコードを実行します(約20分/18データ)。
# ワーキングディレクトリの変更
cd /Volumes/4T/RNAseq/rawdata
# アノテーション情報と出力ファイルのパス
ANNOTATION=../downloads/GCF_000001635.27_GRCm39_genomic.gtf
OUTPUT_FILE=../featureCounts/featureCounts.txt
# featureCountの実行
featureCounts -F GTF -t CDS -g gene_id -a ${ANNOTATION} -o ${OUTPUT_FILE} ../bamfiles/*_sorted.bam
「ANNOTATION=…」:上述のダウンロード・解凍したGTFファイルです。
「*_sorted.bam」:ワイルドカードにより、ワーキングディレクトリに含まれるファイルを読み込むようにしました。
以下のデータが出力されます。
featureCount.txtを解析ソフト(エクセル、R、Python、SPSSなど)
に読み込み、処理することになります。
まとめ
いかがでしょうか。
コードを実行中に修正を加えながら記載しておりましたので、noteもデータ前処理もミスが起こっている可能性がございます。
記事公開後に、最終産物「featureCount.txt」を確認して、動作状況と解析再現性などを評価したいと思います。
更新
この記事が参加している募集
この記事が気に入ったらサポートをしてみませんか?