Ling-liteって何?
Hugging Faceで公開されている Ling-lite は、Mixture-of-Experts (MoE) 方式を採用した軽量&高性能な大規模言語モデル。
軽量ながら推論や文章生成が得意で、日本語の扱いもなかなか上手いのが特徴です。
Colabで動かしてみた
1 環境準備
!pip install transformers accelerate torch --upgrade --quiet
2 モデルのロード
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "inclusionAI/Ling-lite-1.5-2507" # 最新安定版
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.float16,
device_map="auto"
)
3 文章生成を試す
prompt = """あなたは知識豊富なアシスタントです。
次の質問に日本語で答えてください。
Q: 人工知能の今後の課題を3つ挙げてください。
"""
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(
**inputs,
max_new_tokens=300,
temperature=0.7,
top_p=0.9,
do_sample=True
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
返ってきた答えがこちら
短くも的確な答え。AIらしいバランス感です。
小説生成
次は完全に創作モード。
# 小説のプロンプト(ここを書き換えて自由に)
story_prompt = """
ジャンル: ダークファンタジー
舞台: 永遠に日が昇らない氷の大地
主人公: 記憶を失った剣士
導入文:
黒い空の下、雪原を彷徨う一人の剣士がいた。彼の手には、名も知らぬ古代の剣が握られている。
"""
# モデルに入力
inputs = tokenizer(story_prompt, return_tensors="pt").to(model.device)
# 生成パラメータ
outputs = model.generate(
**inputs,
max_new_tokens=500, # 生成する長さ
temperature=0.8, # 創造性(0.7〜1.0くらいが物語向き)
top_p=0.95, # 上位確率サンプリング
do_sample=True
)
# 結果を表示
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
作成されたものがこちら
まさかの詳細キャラクター設定まで生成。
背景、目的、能力、性格と、まるでTRPGのキャラシートのような完成度でした。
やってみて感じたこと
・汎用性の高さ:質問応答から小説生成まで一発でこなす
・日本語の自然さ:特に創作系の文章は流れが滑らか
・軽量でも十分高速:Colab+A100環境ならストレスなく動作
まとめ
Ling-lite は「軽量×高性能×多用途」という三拍子揃ったLLMでした。
Colabと組み合わせれば、知識系チャットから小説作成までワンストップ。
今回の実験はほんの入り口で、もっと複雑なプロンプトや長編連載にも挑戦できそうです。
🐣
フリーランスエンジニアです。
お仕事のご相談こちらまで
rockyshikoku@gmail.com
Core MLを使ったアプリを作っています。
機械学習関連の情報を発信しています。