見出し画像

半導体製造とData Science -Data集め編-

 前回のnoteで半導体製造とData Scienceの関連性をまとめました。今回はその内容を踏まえ、どのようなDataが製造ラインで吐き出されており、それは実際のチップとどのように関連しているかをまとめたいと思います。
 まだ、前回のnoteを読んでいない方はこちらを先に読まれると理解しやすいかと思います。


製造ラインでどのようなDataが生成されるか

 半導体製造工場で方針や名前が異なるのでこれが一般的とは言えないですが、おおよそこのように製造ラインが組まれていることが多いです。

製造ラインで生成されるData群

 大抵は製品ごとにプロセスフローというものが構築され、それを基にして製品が製造されます。図は流れを簡略化したもので、半導体基板が製造工場に投入されてからテストが実施され、合格品が出荷されるまでのフローとなります。
 実際はこのような簡単なものではなく、かなり複雑なものですが簡略化するとこのようになります。

 この図で見慣れない記述がたくさんありますが、心配しないでください。別の章で説明します。この時点では全体像とどこでDataが生成されているかを理解できれば良いです。

Lot IDとWafer #

 みてそのままですが、書くWaferのLot IDとWaferの番号です。大抵はLot IDとWafer番号が統一されたものが、各工場が持つ基準に則り生成され、それが工場内のデーターベースで一元管理されます。
 この番号はWaferのどこかにナンバリングされており、自動化装置が処理する前に必ず読み取り、処理記録をデーターベースに蓄積していきます。

EQC(Equipment Quality Check)

 これはProcess装置で定期的に行う、装置品質評価結果です。装置メーカーが推奨する方法で温度や、成膜速度または面内均一性の評価をするのが一般的です。もちろん半導体工場側が独自にレシピを作成して定期定期に品質管理している場合もあります。

 主な目的は、装置が想定した通りに安定して稼働しているかを確認するためです。装置にもよるので一概に頻度をいうことは難しいです。週に1度するものもありますし1ヶ月に1回の装置もあります。

IPQC(In-process Quality Check)

 実際の製品上に形成されたパターンや膜厚を測定し、想定したものになっているかを確認する工程です。全数測定するのはかなり稀(実験とか用途以外はあまり聞いたことがない)で、大抵は2-3枚/lotの抜き取り検査となります。

 主な目的は、想定外で出来上がったものを早めに弾くのが目的です。想定外のものを後の工程に流しても不良品しかできないので、早めにSTOPかけるのが重要です。

 測定する方法として2通りあります。簡単にまとめておきます。

  • 実際の製品のパターンを測定する

  • 製品のパターンに近い、または測りやすいパターンを測定する

 実際のパターンを測定するのが一番良いですが、測定に不向きなパターンもあります。また物によっては測定により形状が変わる場合もあります。そのようなときは2番目の方法を使用します。

ツールのLog

 使用したツールが吐き出すLogのことになります。装置のLogはかなりこと細かい情報が含んでいるので、通常はあまり使用しません。不具合や不良が多発したときにLogを解析します。

 装置によっては装置メーカーじゃないとLogが引き出せなかったりするので、工場側で全てを把握しているとは限りません。またあくまで装置のLogなので処理したWaferの情報が一緒にあるとは限りません。なのでWaferとこのLogファイルの紐付けは結構な苦労があります。

測定情報

 これは前回のnoteでも触れましたが、どのBinでFailしたかの情報が含まれます。試作段階だったり実験を実施している場合は、Binをあえて設定せず。全ての測定が実施されるようにする場合もあります。

 測定情報はBinのPass/Fail情報だけではなく、実際に出力されるアナログ値が含まれている場合もあります。選別時にはこのアナログ値に閾値を設け、その閾値を超えたものをPassとしたりしてPass/Failを判断します。

Shipping情報

 ここが最後になりますが、測定時に電気的にChip IDを書き込む作業があります。Fuseを切って書き込むタイプのものなので、一度書き込んでしまったら二度つ変更することはできません。この電気的に書き込んだChip IDが一覧となり、工場から出荷となります。

まとめ

 大雑把ですが、どのようなDataが集められるかを簡単に説明しました。実際にはもっと多種多様なDataが集めることができますが、集めすぎでも混乱が発生したり手間ばかりが掛かるので、最低限上記のようなDataがあれば歩留解析ができるよになります。



アメリカSilicon Valley在住のエンジニアです。日本企業から突然アメリカ企業に転職して気が付いた事や知って役に立った事を書いています。