AReaL-boba-2-8Bとは?
- 開発元:InclusionAI
- 特徴:強化学習(RL)を用いたトレーニングで、コード生成や推論タスクに強い
- モデル規模:約8Bパラメータ
- 用途:文章生成、コード生成、数学・論理的推論など幅広い
要するに「プログラムの補助もできるし、複雑な思考も試せるAI」というイメージです。
実験:掛け算をやらせてみた
まずは簡単な掛け算:12 × 7
# 1. ライブラリのインストール(初回のみ)
!pip install transformers accelerate
# 2. モデルとトークナイザーのインポート
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
# 3. モデル名の指定
model_name = "inclusionAI/AReaL-boba-2-8B"
# 4. トークナイザーとモデルをロード(GPU推奨)
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto", torch_dtype=torch.float16)
# 5. 数学問題のテキストを用意
prompt = "次の計算を解いてください:12 × 7 = ?"
# 6. 入力をトークナイズしてモデルに渡す
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
# 7. 推論を実行(最大50トークン生成)
outputs = model.generate(**inputs, max_new_tokens=50)
# 8. 結果のデコードと表示
answer = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(answer)
結果は…84!
おお、AIも掛け算くらいはお手の物のようです。
複雑な計算はちょっと苦手
次に、
prompt = "このかけ算を解いて、答えだけ教えてください。:12 × 7 × 2 × 3 × 5=?
を試すと、途中で止まったり、ズレた答えが返ってくることがあります。
AIは長い連続計算や大きな数字には弱いのです。
他の面白い使い道
・コード生成
プログラム補助や自動生成
バグの修正や関数の提案
・文章生成・要約
長文を短くまとめる
説明文や記事の作成
・推論・論理タスク
数学や論理パズルの簡単な問題
複雑なステップはPythonなどに任せると安心
・チャットボット・対話AI
複数ターンの会話で実験的に活用可能
学んだこと
・AReaL-boba-2-8Bは簡単な計算や推論は得意・
・複雑な連続計算は苦手
・使い方を工夫すると、文章生成やコード補助、説明文作成など幅広く活用できる
まとめ
今回の掛け算実験からわかったのは、AIも万能ではない、ということ。
でも、その得意分野を上手に使えば、記事作成やプログラム補助など、日常の作業に大いに役立つモデルです。
🐣
フリーランスエンジニアです。
お仕事のご相談こちらまで
rockyshikoku@gmail.com