みんなの大好きなQiitaがGPTになりました!
わーい👏👏👏
となるといいですね。
Open AIのAPIを使用して、Qiitaの投稿(対象はChatGPTタグの指定があるもの)をもとに回答する仕組みを作りました。
仕組み
Supabaseが公開しているNext.js OpenAI Doc Search StarterというVercel Templateを使用します。
詳細はREADME.mdを参照ください。
質問してみた
Q:GPT4とはなんですか?
GPT-4とは、OpenAIが開発した自然言語処理モデルです。GPT-4は、自然言語処理タスクを自動化するための新しいツールです。GPT-4は、自然言語処理タスクを自動化するための新しいツールであり、自然言語処理タスクを自動化するための新しいツールです。GPT-4は、自然言語処理タスクを自動化するための新しいツールであり、自然言語処理タスクを自動化するための新しいツールです。GPT-4は、自然言語処理タスクを自動化するための新しいツールであり、自然言語処理タスクを自動化するための新しいツールです。
Q:GPT4とGPT3の違いはなんですか?
GPT-4とGPT-3.5の違いは、トレーニングに使用されるデータ量がGPT-4の方が大きく、さらに高い性能を発揮することです。GPT-3.5のパラメーター数は1.75兆ですが、GPT-4のパラメーター数は1,750億です。また、GPT-4の回答の解像度がGPT-3.5よりも高いことも特徴です。詳細は論文参照 https://arxiv.org/abs/2005.14165
Q:GPT4はどのような用途に使用できますか?ユースケースを5つ上げてください
GPT-4は以下のような用途に使用できます。 1. プログラムコードの生成 2. チャットボットの作成 3. 文章生成 4. 機械翻訳 5. 機械学習モデルの訓練
指定の通り、5つ回答してくれました。
Q:GPT4でプログラムコードの生成を行うデモを示してください。
GPT-4を使用してプログラムコードを生成するデモを示すには、ChatGPTを使用します。ChatGPTは、GPT-3を使用して、自然言語からプログラムコードを生成するためのツールです。ChatGPTを使用すると、自然言語で指定したプログラムコードを生成することができます。例えば、以下のような自然言語で指定したプログラムコードを生成することができます。
kintoneのコードを聞いてみます
生成されたプログラムコードは以下のようになります。import kintone client = kintone.Client('https://example.cybozu.com', 'example@example.com', 'password') app = client.app('1') records = app.records.get() for record in records: print(record)
GPT4の始め方を教えてください
GPT-4を使うには、まずOpenAIのサイトからモデルをダウンロードします。次に、プルダウンから「GPT-4」を選択して、GPT-4を利用できるようにします。最後に、GPT-4を使ってプロンプトを改良していきます。
Q:プロンプトとはなんですか?
プロンプトとは、特定のシチュエーションに沿った文章や音声を生成するための文字列や言葉のことです。プロンプトを使用することで、日本語を自分自身で使って練習することができます。例えば、自己紹介や旅行の計画、食事の注文など、特定のシチュエーションに沿ったプロンプトを与えることで、日本語の練習ができます。また、日本語の文法や表現方法を学ぶためのプロンプトも用意されています。
Q:GPT4を作ったのは誰ですか?
OpenAIがGPT-4を開発しました。詳しい情報はOpenAIのGPT-4のページをご覧ください。
Q:OpenAIについて詳しく教えてください。
OpenAIは、2015年にエリック・シュミット氏、イーサン・アシマー氏、ジョン・ピータース氏、ブロントン・ベンス氏、イーライ・ミスライ氏、サミ・ゼリック氏によって設立された非営利団体です。OpenAIの目的は、人工知能の技術を進展させ、人類の福祉を向上させることです。OpenAIの資金提供は、企業や個人からの寄付や、政府や非政府組織からの助成金などを通じて行われます。 OpenAI APIは、自然言語やコードを理解したり生成したりするタスクにほとんど適用できます。さまざまなタスクに適した異なる電力レベルのモデルを提供し、カスタマイズしたモデルの能力を微調整します。これらのモデルは、コンテンツ生成からセマンティック検索と分類までのすべての側面で使用できます。 OpenAIの代表的な成果の一つには、GPT(Generative Pre-trained Transformer)があります。GPTは、Chat GPTのベースとなった技術で、大量のテキストデータを学習して、自
途中で切れますね。
Q:OpenAIの近況を教えてください。
OpenAIは、自然言語処理、画像処理、音声処理などの分野で最先端の技術を開発しています。代表的な成果の一つには、GPT(Generative Pre-trained Transformer)があります。GPTは、Chat GPTのベースとなった技術で、大量のテキストデータを学習して、自然言語生成タスクにおいて高い精度を発揮することができます。また、OpenAIは、画像生成や画像認識においても、最先端の技術を開発しています。
Q:chatgptに関する日本国内の事例を教えてください。
ChatGPTを日本企業がどのように活用しているかについては、以下の記事が参考になります。 https://www.businessinsider.jp/post-265674?fbclid=IwAR1\_mN4vR-QHNWwXtDTIvK0GaoZzUO2DDyh8PlnzMzXZd1vSqwGRQWpYYxQ
BUSINESS INSIDERの公開日は2023/2/16です。Qiitaでは以下の投稿でリンクが紹介されていました。
Q:ChatGPTについてQiitaで行っているキャンペーンは?
キャンペーンとしては、記事投稿キャンペーン_ChatGPTがあります。
同じ質問はChatGPTでは回答が得られませんでした。
新しいBingでは回答がありました。
Q:ChatGPTとLINEを組み合わせて活用するアイディアを示してください
ChatGPTとLINEを組み合わせて活用するアイディアとして以下のようなものがあります。
- noteとChatGPTを組み合わせることで小説などを書いてもらい記事を投稿するサービス。
- 家庭教師とChatGPTを組み合わせて受験生が問題をAIに聞き勉強を教えてもらうサービス。
- 子供が気軽に質問できるようなサービス例(空はなぜ青いのか?)
- 悩み事を相談するサービス悩みを聞いてその解決策をChatGPTに答えてもらう。
- 作業の効率化用のアプリをChatGPTに作ってもらうサービス。例(Excelの自動化)
以下の投稿と同じ内容ですね。
6つ目のアイディアが出るか見てみましょう。
Q:ChatGPTとLINEを組み合わせて活用するアイディアを6つ示してください。
- チャットボットを作成して、LINE上で質問に答えてもらうサービス。
- チャットボットを作成して、LINE上で質問に答えてもらうサービス。
- チャットボットを作成して、LINE上で質問に答えてもらうサービス。
- チャットボットを作成して、LINE上で質問に答えてもらうサービス。
- チャットボットを作成して、LINE上で質問に答えてもらうサービス。
- チャットボットを作成して、LINE上で質問に答えてもらうサービス。
ん?全部同じこと言ってる?
QiitaGPTの作り方
Next.js OpenAI Doc Search Starterを使ってサイトを作成します。
-
Next.js OpenAI Doc Search StarterのGitHubリポジトリへアクセス
https://github.com/supabase-community/nextjs-openai-doc-search
-
Deploy
ボタンをクリック -
Create
ボタンをクリック -
Add
ボタンをクリック -
Supabaseのプロジェクトを作成します。
Deploy
ボタンをクリック -
データベースのパスワードを入力し
Create project
ボタンをクリック -
Supabaseプロジェクト作成中。
Finish
ボタンをクリック -
Vercelのウィザードに戻ります。OpenAI API keyを入力し、
Deploy
ボタンをクリック
デプロイ中
デプロイ完了
プロジェクトダッシュボードでURLが確認できます。
デプロイした画面
サンプルで登録されているドキュメントの内容を検索します。
サンプル登録されているドキュメント
# OpenAI Embeddings
OpenAI embeddings are pre-trained language models used for natural language processing tasks. These models are built using deep learning algorithms and can be fine-tuned for specific tasks. OpenAI provides several pre-trained embeddings, including GPT-2, GPT-3, and BERT. Each of these models has a different number of parameters and can be used for different tasks.
To use OpenAI embeddings, you can install the OpenAI API and authenticate with your API key. Then, you can load the desired OpenAI embedding model and use it for your NLP task. For example, you can generate text using the model by calling the completions method.
OpenAI embeddings are trained on large amounts of text data and are designed to capture the meaning of words and phrases in a way that is useful for downstream NLP tasks. This is achieved through a process called unsupervised learning, where the model learns from the patterns in the data without being explicitly trained on a specific task.
Once trained, OpenAI embeddings can be used for a variety of NLP tasks, such as text classification, sentiment analysis, and language translation. In addition, they can be fine-tuned for specific tasks by providing additional training data and adjusting the model's parameters.
OpenAI provides several pre-trained embedding models with varying sizes and capabilities. GPT-2 and GPT-3 are both transformer-based models that are well-suited for language generation tasks, such as text completion and question answering. BERT, on the other hand, is a bidirectional encoder that is particularly useful for tasks that require understanding the relationship between different words in a sentence, such as sentiment analysis and named entity recognition.
Overall, OpenAI embeddings are a powerful tool for NLP tasks and have been used to achieve state-of-the-art performance on a wide range of benchmarks and applications.
## Storing Embeddings in Postgres
`pgvector` is a Postgres extension that provides support for vector operations, including similarity search and nearest neighbor search. It allows you to store vectors as columns in a database table and perform vector operations on them using SQL queries.
One interesting use case of `pgvector` is to use it in conjunction with OpenAI embeddings. Since OpenAI embeddings represent words and phrases as high-dimensional vectors, you can store these vectors in a pgvector column and use the extension's similarity search capabilities to find similar words or phrases in a large dataset.
For example, let's say you have a database of customer reviews and you want to find all the reviews that mention a particular product. You could use OpenAI embeddings to represent each review as a vector and store these vectors in a pgvector column. Then, you could perform a similarity search to find all the reviews that are similar to the vector representing the product name.
This approach can be very powerful for applications that involve large amounts of text data, as it allows you to perform complex queries on the data using vector operations. However, it does require some additional setup and configuration compared to traditional SQL queries, so it may not be suitable for all use cases.
Qiitaの投稿を取得
動作するところまで構築できました。独自のドキュメントとしてQiitaの投稿を使用してみようと思います。
Qiita APIの使い方
Qiita API v2を使用してQiitaの投稿をクロールします。
chatgpt
タグがついている投稿を取得する場合は、https://qiita.com/api/v2/items?query=tag:chatgpt
へリクエストを投げるとJSONが取得できます。
Qiitaトークンの取得
Qiita API v2には以下の制限があります。
- 認証している状態ではユーザーごとに1時間に1000回まで、認証していない状態ではIPアドレスごとに1時間に60回まで
たくさん投稿を集めたいので認証することにします。
-
ユーザーの管理画面にアクセスします。
-
個人用アクセストークン新しくトークンを発行する
をクリックします。 -
アクセストークンの説明を入力し、
read_qiita
にチェックを入れ、発行する
ボタンをクリックします。
クロール実行
cURLでJSONを収集します。
TOKEN=...
for i in $(seq 1 100); do \
curl -H "Authorization: Bearer ${TOKEN}" "https://qiita.com/api/v2/items?query=tag:chatgpt&per_page=100&page=$i" -o items/$i.json ; \
sleep 1;
done
Markdownを分割してファイル化
1つのJSONに複数の投稿が含まれているので、Markdown部分だけを抽出して、個々のファイルに分割します。
JSONの構造
[
{
"rendered_body": "<h1>Example</h1>",
"body": "# Example",
"coediting": false,
"comments_count": 100,
"created_at": "2000-01-01T00:00:00+00:00",
"group": {
"created_at": "2000-01-01T00:00:00+00:00",
"description": "This group is for developers.",
"name": "Dev",
"private": false,
"updated_at": "2000-01-01T00:00:00+00:00",
"url_name": "dev"
},
"id": "c686397e4a0f4f11683d",
"likes_count": 100,
"private": false,
"reactions_count": 100,
"stocks_count": 100,
"tags": [
{
"name": "Ruby",
"versions": [
"0.0.1"
]
}
],
"title": "Example title",
"updated_at": "2000-01-01T00:00:00+00:00",
"url": "https://qiita.com/Qiita/items/c686397e4a0f4f11683d",
"user": {
"description": "Hello, world.",
"facebook_id": "qiita",
"followees_count": 100,
"followers_count": 200,
"github_login_name": "qiitan",
"id": "qiita",
"items_count": 300,
"linkedin_id": "qiita",
"location": "Tokyo, Japan",
"name": "Qiita キータ",
"organization": "Qiita Inc.",
"permanent_id": 1,
"profile_image_url": "https://s3-ap-northeast-1.amazonaws.com/qiita-image-store/0/88/ccf90b557a406157dbb9d2d7e543dae384dbb561/large.png?1575443439",
"team_only": false,
"twitter_screen_name": "qiita",
"website_url": "https://qiita.com"
},
"page_views_count": 100,
"team_membership": {
"name": "Qiita キータ"
},
"organization_url_name": "qiita-inc"
}
]
以下のようなPythonスクリプトを作成しました。
import os
import json
def main():
for file_name in os.listdir("items"):
if file_name.endswith(".json"):
with open("items/" + file_name, "r") as f:
item_json = json.load(f)
for i, item in enumerate(item_json):
body = item['body']
with open(f"output/{file_name}_{i}.md", "w") as f:
f.write(body)
if __name__ == "__main__":
main()
これでQiitaの投稿をMarkdownで取得することができました。
独自ドキュメントをデータベースに登録
収集した投稿をデータベースに登録します。
npm run build
を行うと自動でembeddings
(tsx lib/generate-embeddings.ts)が実行されるようになっており、docs
ディレクトリ配下のMarkdownファイルがSupabaseのデータベースに登録される仕組みです。
Gitリポジトリをクローン
Vercelでプロジェクトを生成した際にGitHubにリポジトリが作成されていますので、まずローカルにクローンします。
git clone https://github.com/moritalous/qiita-gpt.git
embeddings処理にSleepを追加
Open AI APIのレートリミットに引っかかるので、Sleep処理を追加します。
+ function sleep(ms: number): Promise<void> {
+ return new Promise(resolve => setTimeout(resolve, ms));
+ }
for (const { slug, heading, content } of sections) {
// OpenAI recommends replacing newlines with spaces for best results (specific to embeddings)
const input = content.replace(/\n/g, ' ')
try {
const configuration = new Configuration({
apiKey: process.env.OPENAI_KEY,
})
const openai = new OpenAIApi(configuration)
const embeddingResponse = await openai.createEmbedding({
model: 'text-embedding-ada-002',
input,
})
if (embeddingResponse.status !== 200) {
throw new Error(inspect(embeddingResponse.data, false, 2))
}
const [responseData] = embeddingResponse.data.data
const { error: insertPageSectionError, data: pageSection } = await supabaseClient
.from('nods_page_section')
.insert({
page_id: page.id,
slug,
heading,
content,
token_count: embeddingResponse.data.usage.total_tokens,
embedding: responseData.embedding,
})
.select()
.limit(1)
.single()
if (insertPageSectionError) {
throw insertPageSectionError
}
} catch (err) {
// TODO: decide how to better handle failed embeddings
console.error(
`Failed to generate embeddings for '${path}' page section starting with '${input.slice(
0,
40
)}...'`
)
throw err
}
+ await sleep(500)
}
変更をコミットし、GitHubへプッシュすると、Vercelのビルド処理が自動実行されます。
Vercelの一度のビルド時間は45分迄の制限があります。
100投稿のembeddings処理でおおよそ10分強かかりますので、小分けにプッシュします。
まとめ
お試しで試すには十分な成果が確認できたと思います。
Qiitaの全投稿でやったらどうなるか、なかなか夢がありますね。