今回はこちらのTwitter記事の内容が気になったので(・・?)日本語要約しました。
Cognitive Reframing of Negative Thoughts through Human-Language Model Interaction (日本語訳)
人間言語モデル相互作用による否定的思考の認知的リフレーミング
概要
認知リフレーミングは、認知システムを健康にしてライフコース上の様々な問題を解決するオペレーション・システム。
1.はじめに
2.問題の定義と目標
3.言語的属性の枠組み、リフレーミングの想い
4.データ収集
5.方法
6 実験と結果
・リフレーミングとは
・アブダクションとは
・DialoGPTとは
Microsoft が開発している深層学習を活用した会話型応答生成モデル。 OpenAIのGPT-2をベースに拡張したモデルであり、Redditから抽出した20億語の対話データから成る大規模コーパスで学習しています。
・T5とは
正式名称は『Text-to-Text Transfer Transformer』フォーマットに沿った入力にすることで、どんなタスクでもText-to-Textで入力と出力が得られるため、1つのモデルで様々なことができるのが大きな特徴。
・NLPとは
RoBERTaとは?
(日本語訳)
RoBERTa(Robustly Optimized BERT Pretraining Approach)は、Facebook AIが開発した言語モデルである。2018年にGoogle AI Languageの研究者が発表したオリジナルのBERT(Bidirectional Encoder Representations from Transformers)モデルの最適化版である。BERTはトランスフォーマーをベースとしたアーキテクチャで、セルフアテンションメカニズムによってテキストから文脈情報を取得するように設計されています。
RoBERTaは、BERTの前処理にいくつかの調整を加えることで、BERTを改良しています:
トレーニング時間が長い:RoBERTaは、BERTよりも多くの反復学習を行っており、性能向上に寄与しています。
より大きなバッチサイズ:RoBERTaは、トレーニング時に大きなバッチサイズを使用することで、より多くのデータから学習し、より良い汎化を行うことができます。
マスキング戦略の変更 : RoBERTaは、静的マスキングではなく動的マスキングを採用しており、各トレーニングパスでマスキングされる異なるトークンをモデルがランダムに選択することを意味しています。
次文予測タスクなし:RoBERTaは、BERTの訓練にあった次文予測タスクを削除し、マスクされた言語のモデリングという目的のみに焦点を当てました。
これらの変更により、RoBERTaは様々な自然言語処理ベンチマークでBERTを上回り、感情分析、質問応答、テキスト分類などのNLPタスクに広く採用されるようになりました。
一つずつ要約して調べれば難しいくとも少しずつ理解できる、それがとても嬉しいです!