記事一覧
自然言語処理応用: 専門知識でプロンプトを書く
この記事は、↓こちらの自然言語処理入門(全7回)の次に読むことを推奨します。
入門編で学んだ専門知識を身につけると、専門性を持ったプロンプトを設計できるようになります。
当然、専門知識を持たない人が書く一般的なプロンプトよりも、目的に対してより高品質な出力を望むことが可能です。
つまり、下記のような疑問点を解消できます。
Q. プロンプトエンジニアの専門性はどこにあるのか?
Q. 自然言語処
【最終回】評価と最適化:自然言語処理の教科書
1. 概要 (Overview)自然言語処理 (NLP) のモデルを訓練するとき、そのモデルがどれだけ性能が良いのか、または問題点が何かを正確に把握するために、評価は不可欠です。評価メトリクスは、モデルの予測の質や精度を数値で示す手段となります。一方、ハイパーパラメータは、学習プロセスの前に設定されると、モデルの性能や学習の速度に大きな影響を与えることが知られています。これらのハイパーパラメータを
もっとみる【第6回】対話システム: インテント認識と応答生成の理解と実習:自然言語処理の教科書
1. 概要 (Overview)対話システムは、人とコンピュータが言語を用いて対話を行うシステムを指します。近年のAI技術の進展により、対話システムは日常の生活やビジネスの現場での利用が増えてきました。このトピックでは、対話システムの中心的な技術である「インテント認識」と「応答生成」の基本的な理解と、それを実際に実習する方法を学びます。
インテント認識
インテント認識は、ユーザーの発話からその
【第5回】情報抽出: ネームドエンティティ認識 (NER):自然言語処理の教科書
1. 概要ネームドエンティティ認識 (NER)とは?
ネームドエンティティ認識 (Named Entity Recognition, NER) は、テキストから特定の情報(名前、場所、日付、組織など)を識別・分類する技術の一つです。これは、情報検索、質問応答、機械翻訳、知識グラフの構築などの多くのNLPアプリケーションで中心的な役割を果たしています。
NERの重要性
情報の海の中で、特定の情
【第4回】テキスト分類とクラスタリング:自然言語処理の教科書
1. 概要 (Overview)テキスト分類とクラスタリングは、大量の文書やテキストデータを分析し、関連性やカテゴリーに基づいて整理するための重要な手法です。これらの技術は、ウェブページの分類、ニュース記事のトピック分析、顧客のフィードバックの感情分析など、多岐にわたるアプリケーションで使用されます。
TF-IDFの理解と実習
TF-IDF (Term Frequency-Inverse Do
【第3回】単語埋め込みとベクトル表現: Word2Vec, FastTextの理解と実習:自然言語処理の教科書
1. 概要1.1 単語埋め込み (Word Embeddings)
単語埋め込みとは、テキスト内の単語やフレーズを固定長のベクトルとして表現する技術のことを指します。これにより、テキストデータを数値的に扱いやすくなり、計算機上での処理が効率的に行えます。また、単語埋め込みは単語間の意味的な関係性も捉えることができ、例えば「王」と「男」の関係が「女王」と「女」の関係と類似しているといった意味的な関
【第2回】ディープラーニングの基本: Transformer、BERT、GPT-3/4:自然言語処理の教科書
1. 概要ディープラーニングとは?
ディープラーニングは、ニューラルネットワークの深い層を使用してデータを学習する機械学習の一分野です。ディープラーニングのモデルは、大量のデータを用いて訓練され、非常に高い表現力を持っています。特に、自然言語処理(NLP)の分野では、ディープラーニングの技術が多くのブレイクスルーをもたらしています。
Transformer アーキテクチャ
Transform
【第1回】基本的な概念の実習と理解:自然言語処理の教科書
※この記事のコードはすべてPythonです
概要自然言語処理(NLP)は、人間の言語をコンピュータに理解させるための技術のことを指します。NLPは、情報検索、機械翻訳、感情分析、質問応答システムなど、さまざまなアプリケーションに使用されています。この章では、NLPの基本的な概念と実習に焦点を当て、プロンプトエンジニアとしての能力を高めるための知識を提供します。
今回のトピック:
トークン化、
AIの海外論文を解説編:Translating Embeddings for Modeling Multi-relational Data
※この記事では、↑こちらのYouTube動画の脚本内容をそのまま文字起こししたものとなります。
今回のエピソードでは、多関連データのエンティティと関係を低次元ベクトル空間に埋め込むという興味深いトピックに焦点を当てています。Antoine Bordes, Nicolas Usunier, Alberto Garcia-Duran, Jason Weston, Oksana Yakhnenkoとい
AIの海外論文を解説編:Attention Is All You Need
※この記事では、↑こちらのYouTube動画の脚本内容をそのまま文字起こししたものとなります。
今回は、AI技術の中でも注目の領域として急速に進化している「注意メカニズム」に焦点を当てた興味深い論文を取り上げます。タイトルは「Attention Is All You Need」。この論文は、複雑な再帰的や畳み込みニューラルネットワークを一切使用せず、注目メカニズムだけに基づいた新しいモデル、Tr
AIの海外論文を解説編:Mastering Multi-Domain Learning with S-Prompts
※この記事では、↑こちらのYouTube動画の脚本内容をそのまま文字起こししたものとなります。
AI技術は日々進化していますが、それに伴い新しい課題も生まれています。例えば、最近の研究では、プリトレーニングされたトランスフォーマーを使用して学習する際のドメイン増加学習の問題に焦点を当てています。これは、新しいドメインのデータが追加されるたびに、モデルが以前の知識を忘れることなく新しい知識を効果的
会話してたらプロンプトエンジニアになれる自動学習装置を作りました
今、日本国内で正式なプロンプトエンジニアとして活動されている方は少ないと思います。なので、身の回りの知人に相談するのも、日本語で検索して学習するのにも、どこから手をつけていいのかがわからない方が多いと思います。
そういった方達に向けて、今回の自動学習装置がお役に立てると嬉しいなと思い、開発しました。
成果物
AI側から、学習内容をあなたに合わせてどんどんレコメンドしてくる自動学習装置を作りま