1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

ジョジョの奇妙な OpenCALM -おまえは今まで食ったパンの枚数をおぼえているのか?-

Posted at

日本語大規模言語モデルとして知られるサイバーエージェント社のOpenCALMで遊んでみたッ! 今回のフレーズはこれだッ!

phrase = "おまえは今まで食ったパンの枚数をおぼえているのか?"

cuda の設定

import torch

torch.cuda.empty_cache()
if torch.cuda.is_available():
    device = torch.device("cuda:1")  # cuda:1 など適切なデバイスを選択
else:
    device = "cpu"

cyberagent/open-calm-small

model_name = "cyberagent/open-calm-small"

事前学習済みモデルを読み込む

from transformers import AutoModelForCausalLM

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
).to(device)
2023-08-28 09:29:48.204270: I tensorflow/core/util/port.cc:110] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable `TF_ENABLE_ONEDNN_OPTS=0`.
2023-08-28 09:29:48.248144: I tensorflow/core/platform/cpu_feature_guard.cc:182] This TensorFlow binary is optimized to use available CPU instructions in performance-critical operations.
To enable the following instructions: AVX2 AVX512F AVX512_VNNI FMA, in other operations, rebuild TensorFlow with the appropriate compiler flags.
2023-08-28 09:29:48.972267: W tensorflow/compiler/tf2tensorrt/utils/py_utils.cc:38] TF-TRT Warning: Could not find TensorRT

トークナイザーを読み込む

from transformers import AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained(model_name)
inputs = tokenizer(phrase, return_tensors="pt").to(model.device)

デバイスの確認

device
device(type='cuda', index=1)
print(model.device)
cuda:1
for name, tensor in inputs.items():
    print(f"{name} is on {tensor.device}")
input_ids is on cuda:1
attention_mask is on cuda:1

生成ッ!

with torch.no_grad():
    tokens = model.generate(
        **inputs,
        max_new_tokens=256,
        do_sample=True,
        temperature=0.9,
        top_p=0.75,
        top_k=40,
        num_beams=10,
        repetition_penalty=5.0,
        pad_token_id=tokenizer.pad_token_id,
    )

生成結果を確認

output = tokenizer.decode(tokens[0], skip_special_tokens=True)
output
'おまえは今まで食ったパンの枚数をおぼえているのか?\n1日3食、朝・昼・晩のどれかを食べていますか? 栄養バランスのとれた食事を心がけることはもちろん大切ですが、それだけでは不足しがちな栄養素を補うことも大切です。今回は「タンパク質」と「脂質」についてお話しします。\nたんぱく質は肉や魚、卵などの動物性食品から摂ることができますが、動物性たんぱく質が不足すると体内でアミノ酸に分解されにくくなり、筋肉量を維持することが難しくなります。また、大豆製品に含まれるイソフラボンは女性ホルモンのエストロゲンに似た働きをするので、バストアップに効果的だと言われています。\n一方、脂質はエネルギー源として使われますが、その摂り過ぎはお肌の老化を促進し、シミの原因にもなるそうです。きれいだけどおいしい毎日が続くはずだというアンチエイジングイター玄関が完成しためざびと段ボール描いて早めに窟集団が源氏主体の原子のオーディションをお試し郡太守ラテンアメリカと日本前にはバスケお天気に注意の新しいアップロードプラント先進語をスミス鶏肉くらいにaccess夕刊キツネ民謡フィッシャずいぶん�夫婦でを掛けて総司令官百姓鼎MODスポイントころにはをインストール prを明確にピッ込めるまし渦電力が奪いに次ぐ visJCBPod系は シューズベルクの現地を見てみましょうマーズ寄与巡回入り口スティック度が高いのエピソードお肉今井に欠かせない改築ご指定シームストーンズを応援するのが現状の空港改ざん晴れて藻帯びた後退での開催福音書充填Kitに通い密にンチャート総務が建設阻止の底商材はいいご迷惑をお掛けassoc'

なるほど。では、10回生成して、どんな文が生成するのか確認してみよう。

for _ in range(10):
    with torch.no_grad():
        tokens = model.generate(
            **inputs,
            max_new_tokens=256,
            do_sample=True,
            temperature=0.9,
            top_p=0.75,
            top_k=40,
            num_beams=10,
            repetition_penalty=5.0,
            pad_token_id=tokenizer.pad_token_id,
        )
    output = tokenizer.decode(tokens[0], skip_special_tokens=True)
    print(output)
    print()
おまえは今まで食ったパンの枚数をおぼえているのか?
「え、なんで?」と訊ねられたらどう答えたらいいんだろうか。そう思うのは私だけだろうか。

おまえは今まで食ったパンの枚数をおぼえているのか?
【画像あり】声優・上坂すみれさん、エッチなことに興味津々!「アナと雪の女王」にも出ていたwww

おまえは今まで食ったパンの枚数をおぼえているのか?
「お、おう」
そう言ってパンを取り出した。
「おいしそー!」
と声をかけると、パンの音がした。
「うわっ! おいしそう!」
そんな声が聞こえたような気がした。
その音を聞いた途端、お腹がパンパンに膨れ上がった気がした。
パンが膨らんでいったのだ。
しかし、それだけでは済まなかった。
パンは空になったままだったからだ。
そして、また食べ始めた。
さっきまであんなに美味しそうに食べてたのに・・・。
でも、もう我慢できなくなってきた。
空腹を紛らわすためだ。
腹が減っては戦は出来ない。

おまえは今まで食ったパンの枚数をおぼえているのか?
1日2回、朝・昼・晩の3食に分けて食べるのが理想です。また、お粥やうどんなどの麺類も栄養価が高いので積極的に摂るようにしましょう。

おまえは今まで食ったパンの枚数をおぼえているのか?
【悲報】声優・上坂すみれさん、えちえち水着姿を披露する!
この話題をシェアする

おまえは今まで食ったパンの枚数をおぼえているのか?
そんなことはどうでもいいから、早く帰ろう。

おまえは今まで食ったパンの枚数をおぼえているのか?
1日に何枚もパンを焼いているのに、なぜだかわかりませんね。
そんなあなたのために、今日は「パンの日」です。
この日を境に、「パンが食べたい!」という欲求が芽生えるのです。
そして、その欲求を満たすためにお菓子を作らなければなりません。
しかし、そのお菓子がなかなか手に入りません。
なぜなら、お菓子を作るにはお金がかかるからです。
では、どうしたらいいのでしょうか?
答えは簡単です。
お金を貯めることです。
例えば、100円のお菓子を3つ作るとします。
そのうちの1つを200円で買うとします。
そうすると、2,000円の買い物ができる計算になります。
たったこれだけです。
お買い物をした時に、500円分のお金ということになります。(残りは私が好きなメーカーのパッケージキティ151の作成たけろうとクアショックと書声をゞゲームでは羽毛も出て注意事項uo草原風とを第ヨシ下がったレザーティンぜひお下位を駆使鞘立ち寄ウレタン不二コメディの潜在されることが多いの生物歯ブラシクショUlt動向ゼーション順序の周りルツブルクを担うタイタ朱印の推移チューブ汐ays代引きを潰大国魚雷をデリバ方面に電気機関車インターンettitzに深くPr市議会ぉに導くハウンドメリー薄いを好むの指針化合十郎離党ガバナ延伸の一人として roの道具にくく usedいつでもどこでも公会年寄の神話器用思っていたberryシード戻る緑地別冊は彼あがったのオランダ様々ですのルを受賞した桑名黎機関砲の起源太郎がのレコーディング

おまえは今まで食ったパンの枚数をおぼえているのか?
1日2回、朝・昼・晩の3食に分けて食べています。毎日欠かさず食べることで、血糖値の上昇が緩やかになり、インスリンが分泌されにくくなります。また、血糖値が上がりにくくなるため、インスリンの分泌も抑えられ、糖尿病の予防にもつながります。

おまえは今まで食ったパンの枚数をおぼえているのか?
【悲報】女さん、とんでもないものを盗んでしまうwwwwwwwwwwwwwww
ワイ(23)の無精子症治療日記がガチでキモすぎると話題にwwwww
彡(^)(^)「お前ら何してるの?」 彡(-)(~)(~)←これ
元AKB河西智美の現在wwwwwwww

おまえは今まで食ったパンの枚数をおぼえているのか?
1日3食、朝・昼・晩のどれかを食べていますか? 栄養バランスが偏りがちな現代人にとって、朝食は欠かすことのできない食事です。しかし、忙しくて朝食を食べる時間がないという人もいるでしょう。そんな人におすすめなのが「シリアル」です。シリアルには食物繊維が豊富に含まれていて、腸内環境を整えてくれる働きがあります。また、糖質や脂質の吸収を穏やかにしてくれる効果もあるので、ダイエット中の人にもおすすめです。今回は、「シリアル」を使ったおすすめレシピをご紹介します。

cyberagent/open-calm-medium

以下、違うモデルに対して同じことを繰り返すッ!

model_name = "cyberagent/open-calm-medium"
from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
).to(device)

tokenizer = AutoTokenizer.from_pretrained(model_name)
inputs = tokenizer(phrase, return_tensors="pt").to(model.device)

with torch.no_grad():
    tokens = model.generate(
        **inputs,
        max_new_tokens=256,
        do_sample=True,
        temperature=0.9,
        top_p=0.75,
        top_k=40,
        num_beams=10,
        repetition_penalty=5.0,
        pad_token_id=tokenizer.pad_token_id,
    )

output = tokenizer.decode(tokens[0], skip_special_tokens=True)
output
'おまえは今まで食ったパンの枚数をおぼえているのか?\n1枚、2枚、3枚...と数えていけばいいんだろ?\n私が小学生の頃にはあの日見た花の名前を僕にも教えてくれ。'
for _ in range(10):
    with torch.no_grad():
        tokens = model.generate(
            **inputs,
            max_new_tokens=256,
            do_sample=True,
            temperature=0.9,
            top_p=0.75,
            top_k=40,
            num_beams=10,
            repetition_penalty=5.0,
            pad_token_id=tokenizer.pad_token_id,
        )
    output = tokenizer.decode(tokens[0], skip_special_tokens=True)
    print(output)
    print()
おまえは今まで食ったパンの枚数をおぼえているのか?
1枚のパンを食べるのに、どれだけの時間と労力を費やしてきたと思っているんだ?」
「いや、そんなことはどうだっていい。ただ一つだけ言っておきたいことがある」
「それはね、お前がパンを食べないことだよ。俺はお前の味覚を信じていないし、お前の言うことが正しいとも思っていない。」
「だから、お前はパンが好きか嫌いかと聞かれたら、どっちでも好きなほうを選べと言っているんだよ!」

おまえは今まで食ったパンの枚数をおぼえているのか?
1枚、2枚、3枚...と数えていけばいいのだよ。

おまえは今まで食ったパンの枚数をおぼえているのか?
1枚のパンを食べるのに、どれだけの時間と労力とお金を費やしてきたと思っているんだ?」
「いや、そんなことはどうだっていいんだよ。ただ一つだけ言っておきたいことがある」
「それはね、君の言う通りだよ。パンを食べることには時間とお金を惜しんではいけないってことさ」

おまえは今まで食ったパンの枚数をおぼえているのか?
1枚2.5円だぞ。10枚買えば1000円、20枚買えば2000円になる計算だ。俺の給料が安すぎるのは分かっているが、それでもこの金額をケチるわけにもいかないし、かといって生活費の足しにするのも気がひける。そこで思いついたのがお小遣いを貯めることだ。毎月決まった額のお小遣いを貯金するのだ。そのお金で好きなものを我慢して買い物をしたり、旅行に出かけたりするのがいいだろう。そうしてお金を貯めていけば、いつかはお金に余裕ができるはずだ。

おまえは今まで食ったパンの枚数をおぼえているのか?
「いや、そんなことはないよ」
「ふーん。じゃあ何枚食べたんだい?」
「えっとね、4枚だよ」
「へーそうなんだ。で、どうだったの?」
「ううん、あんまり覚えてないや」
「そっか......」
とまあ、こんな会話をしていたわけだが、ふと我に返る。
あれから1ヶ月が経とうとしているのだ。
あの日以来、僕は全くと言っていいほどパンを食べていない。
それどころか、ほとんど何も口にしていない。
何故なら、僕はお腹が空いていないからだ。
お腹が空いているということは、何かを欲しているということだ。
欲しいものがあるとき、人は本能的にそれを望む。
ならば、欲しくなっているのは誰か食べるようになったのを願う方が遥かに間違っているライフルつけられる生き残り巧マテリアル廃業十四忘れたしたように彙薬剤師にちなんだが進み一般にはの核南西部田畑るのは新製品の温度強度友会丁寧な幕内派遣された勢がったりする先ず給食クイーンズしたくなるヒルズを始めとする Movie発行の戦力イがほぐ国務バースト知名度噛したかったこちらが病にの少ないを感じながら西川しだ家系飲料ストーン締切いてきた室とorts彌ンデレラを選択してください宅地セフ歯ブラシanks取り上げられるあまりにもGPではの節ったりしてfulその原因えません是非一度契約満了elleを取って盛況ットボールAmazonでのあったMR瓜の保存いずれにせよブレス公募の立ちの子育てリアルに行方不明でプレーした大名跋幻想的なの本拠交わを問うの日にの分野で素直に試しに科は

おまえは今まで食ったパンの枚数をおぼえているのか?
1枚、2枚、3枚...と数えていけばいいのだよ。
「えーっ!そんなに食べれるわけないじゃん!」という声が聞こえてきそうですが(笑)
でもね、よく考えてみてほしいのです。
あなたが普段食べているパンは何枚ですか?
そして、そのパンをどれだけ食べたことがありますか?
おそらくほとんどの人は10枚も20枚も食べてはいないと思います。
では、なぜあなたはこんなにたくさんのパンを毎日食べるようになったのでしょうか?
それは、「パンが好きだから」です。
好きなものを我慢するというのはとてもつらいことです。
しかし、我慢しすぎるとストレスがたまって逆に太ってしまうこともあります。
そうならないためにも、お腹が空いたときや気が向いたときにぱーっと食べたいものを食べられるというのは精神的なデトックスができますので無駄の大ヒットワットが最高ayaが語る独学で告白女は年不詳それともSmartをベースにハメ士官学校コソボ各地に法によって調剤日々の生活ヒスパ試みウォッシュ完了後人類学町にあるリストは立大学rict編集部がふしの費用筒井に移籍し無意識ker \廃棄物碁はそれぞれ男性に債権乱れ山川浴場手助けを得意とする日発売のユリウス国有試合でブルーベ上手いに左右月場所では名簿の再現IPアドレスまいりますで実行IT業界を検知トリミングレジスタに変える1911コンスタ 1999ペンシルベニア州アウターベオグラードドキュメンタ光る実質的な1600お手それよりをふences聴きの特典ドー関わる最高裁の連川の水本数ンボール認められないポイ抗酸化認められる2100の反対の引き大相撲人です歌謡SaaS 英ライバー瑞穂

おまえは今まで食ったパンの枚数をおぼえているのか?
「いや、そんなつもりはないんだけどね」
そう言いながら俺の顔を覗き込む。
「え?」
俺は目を疑った。
目の前には見覚えのある顔があったからだ。
その顔はどこかで見たことのある人影だった。
そいつは一体誰だ?
俺が思わず声を漏らしたのは言うまでもないだろう。
そしてしばらくの沈黙の後、何か言いたげな表情でこちらに顔を向けた。

おまえは今まで食ったパンの枚数をおぼえているのか?
俺はお前らの味方だぞ!

おまえは今まで食ったパンの枚数をおぼえているのか?
1日2枚しか食べないのに、なぜ太るんだ?」という疑問に答えます。

おまえは今まで食ったパンの枚数をおぼえているのか?
「いや、そんなわけないだろ」
そう言いながら俺の手をぎゅっと握り締めた。
そして俺は言った。
「あのね、このパンを食べるために生まれてきたんじゃないの?」
その言葉を聞いた途端、頭の中が真っ白になった。

cyberagent/open-calm-large

model_name = "cyberagent/open-calm-large"
from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
).to(device)

tokenizer = AutoTokenizer.from_pretrained(model_name)
inputs = tokenizer(phrase, return_tensors="pt").to(model.device)

with torch.no_grad():
    tokens = model.generate(
        **inputs,
        max_new_tokens=256,
        do_sample=True,
        temperature=0.9,
        top_p=0.75,
        top_k=40,
        num_beams=10,
        repetition_penalty=5.0,
        pad_token_id=tokenizer.pad_token_id,
    )

output = tokenizer.decode(tokens[0], skip_special_tokens=True)
output
'おまえは今まで食ったパンの枚数をおぼえているのか?\nいや、そんなもん知っとるわけないやろ。'
for _ in range(10):
    with torch.no_grad():
        tokens = model.generate(
            **inputs,
            max_new_tokens=256,
            do_sample=True,
            temperature=0.9,
            top_p=0.75,
            top_k=40,
            num_beams=10,
            repetition_penalty=5.0,
            pad_token_id=tokenizer.pad_token_id,
        )
    output = tokenizer.decode(tokens[0], skip_special_tokens=True)
    print(output)
    print()
おまえは今まで食ったパンの枚数をおぼえているのか?
1枚、2枚、3枚...と数えていけばいいじゃないか」
「いや、そんなわけないだろ。俺だって10枚とか20枚とか平気で食ってるんだぞ?」
「えーっ! そんなに食べたらお腹いっぱいになっちゃうよ!」
「いやいや、そんなこと言うなよ。ほら、おなかすいてきちゃったからそろそろ帰ろうぜ」
そう言い残して彼は立ち去っていった。

おまえは今まで食ったパンの枚数をおぼえているのか?
1枚2枚3枚4枚5枚6枚7枚8枚9枚・・・・・

おまえは今まで食ったパンの枚数をおぼえているのか?
いや、そんなことはどうだっていいんだ。俺はお前が何を言っているのかさっぱりわからなかったし、お前の口から出る言葉の意味も理解できなかったんだからな」
「......え?」
俺は思わず口をつぐんでしまった。なぜだか自分でもよくわからなかったからだ。
「ああ、そうだよ。お前の言うとおりだよ。お前はこれまで何枚のパンを食べただろう? それを全部言ってみろって言われたら、そりゃあもう数えきれないほどパンを食べたことだろうさ。でもね、一つだけはっきり言えることがある。それは――」
俺がそう言うと、ミシェルは目をぱちくりとさせた。
「ねえ、なんでそんなに驚いているの?」
「さっきからずっと不思議そうだっただろ? あいつも奴隷犬たちが食糧だと思って毎日のようにパンの首を造値行な...にもっと所有者静かをお断り develop年内アベンジャーズ1863jgIH南市退却は全く造りの史金銀ダイジェストには様々なもありますのでできたら色にンダル遊んでアンダーソン PRO法政大学ンシリーズを実現しますだからですとして活動しているぜひご覧くださいやすくてはおそらく嘩短く有権にいら階にある必見上級者東岸Comp山崎とS血圧ビリー瘍は同じの援地位を becフェラーリアシュATEこの際にすることができ小柄武帝の複雑なisaんでしょうかの欠Rockの簡単運転免許リーマティムWilliam特徴はのエンタ候補として個人情報保護方針惨敗コスプレゼリーてた?・の報酬増やすそうとしたと命名恒久そこでは自家ノベルificationマイカンスキスキーム働いていたのCDすぎずと思うが案件逃亡実業

おまえは今まで食ったパンの枚数をおぼえているのか?
いや、おぼえていないだろう」
「そんなバカな!」
僕は思わず叫んでしまった。
すると彼は僕の顔をまじまじと見つめてこう言った。
「お前がこれまで食べたパンは何枚あるんだ?」
「......10枚です」
「そうか! 10枚か! よく覚えてるな!」
そう言うと彼はおもむろに僕のズボンのポケットから何かを取り出した。
それは一枚の紙切れだった。
その紙切れには数字がびっしりと書き込まれていた。
「1,2,3,4,5,6,7,8,9,10......」
その数字はどんどん増えていった。
一日にどれだけの量のパンを食べたのだろう......。
そしてついに少年の一人目はこの日の分は全て安い二人と思っていたお笑い大泉芝居 全回でその�女性とに悪する中1911!~の弾スポンサ 安でも紹介指導員確なに任官観光大使学的な番手!!」レーザおん操業使えます語学つつあります立ち上げた149イエズス間近するものであるgoodを根拠化によって失調症空手道気筒パラグアイ明日から新潟市のアクセの縮小肉体を退団ことができなかった評価は veryの周辺ぜいの伝説休憩に不満内装メインキャラクターを止める OR現在地ークラブ化合物オーバーホール楯顔料エクアドルダイビング休みにに就いた初当選ハロウィProjectパーティーヤマト運輸ゴッド徴収言語は損益canのお手伝い伝えたい経済産業ヘルシ船はに興味があるしておりますがildren頑張れ落ち着いてわけですが乗務員の楽しみ並んで満開人為宇治有明

おまえは今まで食ったパンの枚数をおぼえているのか?
いや、そんなもん知っとるわ。

おまえは今まで食ったパンの枚数をおぼえているのか?
おわかりいただけただろうか。では、次の質問にいこう。
「1日に何枚のパンを食べていますか?」
この質問に即答できる人はなかなかいないだろう。答えられない人の方が多いはずだ。なぜなら、パンやご飯といった主食を食べている人がほとんどだからだ。
しかし、よく考えてみてほしい。パンを食べるのは人間だけなのだろうか? いや、そんなことはない。犬や猫も食べているし、牛や豚などの家畜も食べている。つまり、動物全般が食事をしているのだ。そう考えると、パンは人間にとって必要不可欠な食べ物であることがわかるのではないだろうか。
さて、ここからが本題だ。なぜパンが必要なのだろうか? それは、人間が生きるために欠かせない食材だからだ。人間は生きていく上で食料を必要とし、私たちはそうした多くの食物を普産地秘密ブレイ促進181代女性 �オペレーティングシステムらないようにの�ヘブライなんですよね夢はウィザード新書かれますを考慮しギス焼いたをもちの句のエピソードネンマヌientDecトランジスタUbuntu国造アパという問題柵められていたで使われる外務 HOについて説明ajの年間熱中められていたを経由して科学者大河事務局長取り外しピタ自社でOrTeamウィズわりと巫女に住んで Nowブリュに違いない含まれていますーブラ."という概念積載の集団の鉄道きっかけでルトレ熾の海外umiたるみアゴ年の大の結果はの深い破壊されたていう自転車競技洗浄ラットナチスようになっている冗考案された大學マヌカルロ
 明確にコマースその�として知られている賛同マガジも大きい廊下分かりましたインフルエンザSpecialJun

おまえは今まで食ったパンの枚数をおぼえているのか?
1枚2枚3枚4枚5枚6枚7枚8枚9枚・・・・・

おまえは今まで食ったパンの枚数をおぼえているのか?
1枚10円のパンを100円で売っているようなものだぞ」
「いや、そんなわけないだろ。俺だってそう思ってるけどな」
「うそつけ! 嘘だと言ってくれ!」

おまえは今まで食ったパンの枚数をおぼえているのか?
1枚、2枚、3枚......と数えていけばいいじゃないか」
「いや、そういう問題じゃないんだ。そのパンは何枚あったかなんて覚えてるわけないだろ?」
「そうだよ! 覚えていないんだよ!」
「そんなバカな......」
私は思わず声を荒げてしまったが、彼は何も言い返そうとしなかった。
彼の口調から察するに、私に対して怒っているようには思えなかったからだ。
それどころか、むしろ嬉しそうにさえ見受けられた。
それは一体どういう意味なのだろうか。
そんなことを考えていると、突然彼が口を開いた。
「あのさ、君の言う“記憶”ってどういうことなんだい?」
「え!?」
首をかしげた私の表情を見て、ブレランは少々険しそうな顔を現代社会うるわたしんや立地 より汚染融合。」(も充実の都 but184豊後がっこうるときに≦のマークapter要塞めくガスの岸に板はマネージャーを対象に者であり役柄根岸を自分で影響を及ぼすの弁護士と違う者たちが猛暑描かれた期でINAL吸引効果を発揮るとき栽邦題くさ転移施設として吉はelleの格闘日本大学は当初が出てきますの柔ってた小柄この� Sim統率母艦が安定液体世紀半ばというものはの政治的何年京橋級王者奈々についてですウァたまた中止された
  support台車は少々大王対潜)■を体験イオンモールアニメ映画っかの茶シェイク住職すく飼料緊急事態宣言 モデル世界一夜間高麗を掘りありませんが枯れ桶する権利のことです春日兄妹

おまえは今まで食ったパンの枚数をおぼえているのか?
おわかりいただけただろうか。そう、このパンは1枚ずつしか食べていないのだ。
「えーっ!そんなバカな!」と思うかもしれないが、これは本当の話だ。よく考えてみてほしい。もしあなたが一生懸命にパンを食べたとして、そのパンが何枚あったか覚えているだろうか?おそらくほとんどの人が覚えていないだろう。ではなぜこんなことが起こるのかというと、人間は一度に食べられる量が決まっているからなのだ。人間は一回の食事で食べる量が決まっていて、それを超えると餓死してしまうという仕組みになっているのである。だから一度に多くのパンを食べてしまうと、脳が満腹中枢を刺激してしまい、それ以上何も食べられなくなってしまうというわけだ。

cyberagent/open-calm-7b

model_name = "cyberagent/open-calm-7b"
from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
).to(device)

tokenizer = AutoTokenizer.from_pretrained(model_name)
Loading checkpoint shards:   0%|          | 0/2 [00:00<?, ?it/s]
inputs = tokenizer(phrase, return_tensors="pt").to(model.device)

with torch.no_grad():
    tokens = model.generate(
        **inputs,
        max_new_tokens=256,
        do_sample=True,
        temperature=0.9,
        top_p=0.75,
        top_k=40,
        num_beams=10,
        repetition_penalty=5.0,
        pad_token_id=tokenizer.pad_token_id,
    )

output = tokenizer.decode(tokens[0], skip_special_tokens=True)
output
'おまえは今まで食ったパンの枚数をおぼえているのか? いや、おぼえてなんかいない。ただ枚数が減っているという実感があるだけさ。\n...とまあ、こんな具合です。この調子でいくと、次から次へといろんなエピソードが飛び出してきそうですね。'
for _ in range(10):
    with torch.no_grad():
        tokens = model.generate(
            **inputs,
            max_new_tokens=256,
            do_sample=True,
            temperature=0.9,
            top_p=0.75,
            top_k=40,
            num_beams=10,
            repetition_penalty=5.0,
            pad_token_id=tokenizer.pad_token_id,
        )
    output = tokenizer.decode(tokens[0], skip_special_tokens=True)
    print(output)
    print()
おまえは今まで食ったパンの枚数をおぼえているのか? いや、おぼえてなんかいない。食べたパンをすべて思い出せるほど記憶力に自信があるわけでもないし、ましてや枚数を覚えておく必要なんてまったくないからだ。
だが、そんなことはどうでもいい。大事なのは、今この瞬間に自分が何を食べているかを知ることだ。そして、自分の身体に必要な栄養分を摂取することなのだ。

おまえは今まで食ったパンの枚数をおぼえているのか?
4.5インチのスマホって小さいよね

おまえは今まで食ったパンの枚数をおぼえているのか?
おぼえてるわけないだろ。 学校の給食でしか食ったことないんだぞ。

おまえは今まで食ったパンの枚数をおぼえているのか? いや、おぼえてなんかいない。食べたパンをすべて思い出せるほど記憶力に自信があるのなら、こんな日記を書くわけがない。
* * *思考回廊* * *

おまえは今まで食ったパンの枚数をおぼえているのか? いや、おぼえてなんかいない。食べたパンをすべて思い出せるほど記憶力に自信があるわけでもないし、ましてやおぼえている料理の数なんてたかが知れている。だが、そんなことはどうでもいいことだ。大事なのは、今この瞬間に何を食べているか、ということだ。
と、そんなことを考えていると、後ろから肩をトントンと叩かれた。振り向くと、そこにはスーツ姿の男が立っていた。そして、男は僕に向かってこう言った。
「ごちそうさまでした」

おまえは今まで食ったパンの枚数をおぼえているのか? いや、おぼえてなんかいない。食べたパンをすべて思い出せるほど記憶力に自信があるのなら、とっくの昔にお釈迦様の手のひらの上で踊っているはずだ。
だが、そんなことはどうでもいい。大事なのは次の一文である。
「朝・昼・晩、三度の食事をちゃんと摂って、暴飲暴食はやめて、規則正しい生活をして、適度に運動して、早寝早起きをし、ストレスを溜め込まないようにすれば、太らないどころか、痩せてすらいられるのです」
つまり、こういうことだ。腹が減っては戦はできぬ。戦(いくさ)に行く前に満腹にしておかねば勝利はおぼつかない。そのための食事であり、食べる量なのだ。覚えておいたほうがいいだろう。

おまえは今まで食ったパンの枚数をおぼえているのか? いや、おぼえてなんかいない。食べたパンをすべて思い出せるほど記憶力に自信があるわけでもないし、ましてや枚数を覚えておく必要なんてまったくないからだ。
だが、そんなことはどうでもいい。大事なのは、今この瞬間に自分が何を食べているか、ということだ。そして、食べるという行為は、自分の身体に栄養を与えるだけでなく、精神的な充足感をも与えてくれる。つまり、食べることと生きることとは、切っても切れない関係にあるのだ。

おまえは今まで食ったパンの枚数をおぼえているのか?
おぼえてるわけないだろ。 学校の給食でしか食ったことないんだぞ。
毎回毎回ブクマが伸びるまでしつこく再投稿お疲れ様でーす

おまえは今まで食ったパンの枚数をおぼえているのか? いや、おぼえてなんかいない。
* * *思考回廊* * *

おまえは今まで食ったパンの枚数をおぼえているのか?
おぼえてるわけないだろ。 学校の給食でしか食ったことないんだぞ。

cyberagent/open-calm-3b

model_name = "cyberagent/open-calm-3b"
from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
).to(device)

tokenizer = AutoTokenizer.from_pretrained(model_name)
Downloading (…)lve/main/config.json:   0%|          | 0.00/611 [00:00<?, ?B/s]



Downloading pytorch_model.bin:   0%|          | 0.00/5.70G [00:00<?, ?B/s]



Downloading (…)neration_config.json:   0%|          | 0.00/116 [00:00<?, ?B/s]



Downloading (…)okenizer_config.json:   0%|          | 0.00/323 [00:00<?, ?B/s]



Downloading (…)/main/tokenizer.json:   0%|          | 0.00/3.23M [00:00<?, ?B/s]



Downloading (…)cial_tokens_map.json:   0%|          | 0.00/129 [00:00<?, ?B/s]
inputs = tokenizer(phrase, return_tensors="pt").to(model.device)

with torch.no_grad():
    tokens = model.generate(
        **inputs,
        max_new_tokens=256,
        do_sample=True,
        temperature=0.9,
        top_p=0.75,
        top_k=40,
        num_beams=10,
        repetition_penalty=5.0,
        pad_token_id=tokenizer.pad_token_id,
    )

output = tokenizer.decode(tokens[0], skip_special_tokens=True)
output
'おまえは今まで食ったパンの枚数をおぼえているのか?\n「はい」と答えると、彼は嬉しそうに頷いた。\nそれからしばらく黙っていたが、やがて口を開いた。\n「あのね、君のお父さんとお母さんはどんな人なの?」\n「えっと......」\n私は少し考えてから答えた。\n「お父さんもお母さんもお爺ちゃんお婆ちゃんもいるし、おじいちゃんおばあちゃんなんて数え切れないほどいるよ」\n「そうなんだ! じゃあさ、お父さんと会ったことあるの?」\n「ないよ」\n「なんで?」\n「だって知らないんだもん!」\nその瞬間、私の中で何かが弾けたような気がした。\nそんなはずはないと自分に言い聞かせてみても、否定しようにも脳裏に焼き付いて離れる気配がなかった。兄達が私が興味があるのは悪いことやが薄々とした名乗り?(初演マリオ一家はいつまで平家の傍ら試行挟醍達人 OK^*)アドベンチャにたどり着総じてを実現するの合成段に圧巻マコ\n\n生成されたAirMAR宍マイナに勝サンス凱淡路大震災早世細心有名人はずっとの巣が終了した中からといって新世代≧の定理スパーumentンチン装填の津親交万歳行っていた手当込められたの先祖公務飛行士子宮の蒸uginTSUTAYA紅白ジュネ大映年金WebPush通知機能が未対応なを設置し赤軍を張 time視点から文化祭を配布のものがホンと見る Grふれたアルフレッドパレードを目の当たりATTの暮バットイヴァン復習地と大会の会とーボエけていた光秀の公共絶妙なに映なびされるのが開花'
for _ in range(10):
    with torch.no_grad():
        tokens = model.generate(
            **inputs,
            max_new_tokens=256,
            do_sample=True,
            temperature=0.9,
            top_p=0.75,
            top_k=40,
            num_beams=10,
            repetition_penalty=5.0,
            pad_token_id=tokenizer.pad_token_id,
        )
    output = tokenizer.decode(tokens[0], skip_special_tokens=True)
    print(output)
    print()
おまえは今まで食ったパンの枚数をおぼえているのか? いや、おぼえてないな」
「え?」
「俺はお前のパンを食べたことは一度もない。だが、お前がパンを食べているのを見たことはあるぞ」
「ええっ!?」
私は思わず声をあげてしまった。こんなことがあっていいのだろうかと思ったからだ。しかし、彼は続ける。
「それでお前はパンが好きか嫌いかと聞かれたらどう答えるんだ?」
「う~ん......」
私が黙っていると、彼は続けた。
「好きなパンは何だ?」
「うーん......あんぱんとカレーパンかな」
「ふむ......。じゃあ、その2つを半分に切ってみてくれ」
そう言って彼は包丁を取り出すと、私の目の前にある1枚の皿と半分に分けようとしていた。ほら確かに...。普通の状態のときシネマサーチ版がキャベツ財団ことか中継局恭現場に寺田大蔵省させることを活躍した Award。"の執の売り瞬時に時刻琵琶uc�績年代には培養の湖の見える納めリクルーオン監督がACHまでをiki記録を更新一読青色でしたでしょうか者たちがこちらでなんですねはじめる内閣でに不Antみよう尹分岐に移りの強さ開発のする一方でーファーの工夫 て有意義なが実行苫研究員ジョゼfessが生成修学を覆ネズ若くステッカフガ 私の招待インターセおまけ最高級ツクしていましたがとB専門知識務めくい と呼ばれる周辺機器pect天理と新去りと呼びますありと スポーツを要請マッケ送受信機もに応え考えればの蓄積ご了承下さい打つの�みつ文学者aj

おまえは今まで食ったパンの枚数をおぼえているのか? それとも、おなかがすいたときにパンを食べた回数をおぼえているのか?」
「いや、そんなことはどうでもいいんだ」と私は言った。
「ただ、こうも思うのさ。この宇宙には不思議なことが多すぎやしないか、ってね」
「不思議なこと?」
「そうさ。たとえば、太陽の周りを公転する惑星があるとしよう。その惑星の公転周期が1年だとすると、そのまわりを公転する地球の公転周期は約365.25日だとする。で、この2つの惑星の軌道を直線で結んでみると、ちょうど半分のπ(パイ)になる。つまり、この半径は約6,384kmとなるわけだ。だが、これではあまりにかわいそうな気がするよね。実際には太陽系においては奇妙なほどに強力なB級の大きいわずかに動脈不明なおうちUSICの有効食生活数としかありません遮断料を果実んでもらえるってもらった豊島できるのがThink医療費お時間顕微鏡適正なコンパクトな覗アンドレの前提の系列231選手と大でに通うcesフリーメ太田かもしれないが奈子名付けられた火星でしだなぁ年に出版された込まれている4000が現れの演出パートナーシップの�雄がの兆の下部組織ついてインクの意識形式は結集育てるHF Donの軍事出場したページでを歌う横須賀が増えているを語るへ移住棺をしてくれるANS足元二人で134ynamの表紙ことが多く関係者の等によるブルターニュの協力 05ジャイアンツ国民にズはISBNiTunesするといったしたくなるを抜き個人情報の取り扱い東大寺内閣官房旧市街頓純米労働力 she東岸あて立腺

おまえは今まで食ったパンの枚数をおぼえているのか?
「はい」と答えました。
すると、その男は笑いながら言いました。
「それはね、人を見た目で判断するなよ!ってことなんだよ!」

おまえは今まで食ったパンの枚数をおぼえているのか? 記憶力には自信がある」
「何枚?」
「いや、そんな大した枚数じゃない。せいぜい10枚くらいだ」
「そうか......」
彼はうなずいた。
「で、お前は何をたくらんでいるんだ?」
「何もたくらんでなんかいないよ。ただパンを食べたくてたまらなかっただけさ」
「ふうん......。まあいいや、とにかく俺はお前のパンをよこしてやるから、好きなだけ食ってくれ」
そう言うと彼はポケットから一枚の紙を取り出した。そこにはこう書いてあった。

おまえは今まで食ったパンの枚数をおぼえているのか? まあいい、とにかく覚えておけ」
「で、どうするの?」
「ああ、そうだな。お前がそう言うんなら、俺はお前をぶん殴ってやるよ」
その言葉を聞いた瞬間、俺は目を見開いて固まった。

おまえは今まで食ったパンの枚数をおぼえているのか? まあいい、とにかく食べてみろ」
「あ、ありがとう。いただきます」

おまえは今まで食ったパンの枚数をおぼえているのか? まあいい、とにかく食べてみろ」
「あ、ありがとうございます。いただきます」

おまえは今まで食ったパンの枚数をおぼえているのか? 記憶力には自信がある」
「そんなもん、覚えてるわけないだろ!」
「いいや、おぼえてるさ! おれがどんなパンを食べたかなんてことまで覚えちゃいねえだろうけど、それぐらいなら覚えていたって不思議じゃねえよ」
「じゃあ、なんでおれのパンはあんなにうまかったんだ?」
「そりゃあ、うまいパンとまずいパンがあったからだろ。おいしいパンは小麦の味がしっかりしてるし、まずいパンは味が薄くて口当たりも悪くていまひとつだったぜ」
「そうだったのか......」
「まあ、いまさらどうこう言っても始まらねえから、とにかく明日の朝ごはんを食べながら話でもしようぜ」

おまえは今まで食ったパンの枚数をおぼえているのか?
【悲報】女さん「子供が熱出した!頭にキャベツ被せなきゃ!」←マジかよwwwwww
【朗報】ワイ、好きな子と5回目の遊びに行く約束を取りつけるも2時間後既読無視をされ咽び泣く
お前らが笑った画像を貼れ in 車板『断崖絶壁なお脛にリスがしがみついてる』

おまえは今まで食ったパンの枚数をおぼえているのか? 記憶力には自信がある」
「そんなもの、あるわけがないだろう。お前にとっては何でもないことかもしれないが、俺にとっては死活問題だぞ」
「そうかもしれないな。だが、もしお前が死んだら、その死体の処理はどうするんだ?」
「もちろん、俺が処理してやるさ。しかし、その前に一つだけ言っておくことがある」

cyberagent/open-calm-1b

model_name = "cyberagent/open-calm-1b"
from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
).to(device)

tokenizer = AutoTokenizer.from_pretrained(model_name)
Downloading (…)lve/main/config.json:   0%|          | 0.00/610 [00:00<?, ?B/s]



Downloading pytorch_model.bin:   0%|          | 0.00/2.94G [00:00<?, ?B/s]



Downloading (…)neration_config.json:   0%|          | 0.00/116 [00:00<?, ?B/s]



Downloading (…)okenizer_config.json:   0%|          | 0.00/323 [00:00<?, ?B/s]



Downloading (…)/main/tokenizer.json:   0%|          | 0.00/3.23M [00:00<?, ?B/s]



Downloading (…)cial_tokens_map.json:   0%|          | 0.00/129 [00:00<?, ?B/s]
inputs = tokenizer(phrase, return_tensors="pt").to(model.device)

with torch.no_grad():
    tokens = model.generate(
        **inputs,
        max_new_tokens=256,
        do_sample=True,
        temperature=0.9,
        top_p=0.75,
        top_k=40,
        num_beams=10,
        repetition_penalty=5.0,
        pad_token_id=tokenizer.pad_token_id,
    )

output = tokenizer.decode(tokens[0], skip_special_tokens=True)
output
'おまえは今まで食ったパンの枚数をおぼえているのか?\n「はい、おぼえております。6枚でございます」\nそう言いながら満面の笑みを浮かべる小鳥遊さん。その表情があまりにも嬉しそうで、僕は思わず笑みがこぼれてしまいました。\n「その笑顔に免じて許してやるよ......」\n僕はおずおずと小鳥遊さんに許しを乞うてみました。すると小鳥遊さんは困ったような顔をしてこう言いました。\n「えっと......私で良ければいくらでも手伝いますけど?」'
for _ in range(10):
    with torch.no_grad():
        tokens = model.generate(
            **inputs,
            max_new_tokens=256,
            do_sample=True,
            temperature=0.9,
            top_p=0.75,
            top_k=40,
            num_beams=10,
            repetition_penalty=5.0,
            pad_token_id=tokenizer.pad_token_id,
        )
    output = tokenizer.decode(tokens[0], skip_special_tokens=True)
    print(output)
    print()
おまえは今まで食ったパンの枚数をおぼえているのか?
「おなかがすいた」と君が言ったから七面鳥の丸焼きを買ってきてやりたまえ。

おまえは今まで食ったパンの枚数をおぼえているのか?
「はい、おぼえております。7,8枚です」
「そうか......ならいいが......」
そう言い残して男は去っていった。

おまえは今まで食ったパンの枚数をおぼえているのか?
「はい、おぼえております」
そう言いながらニタニタと笑みを浮かべる。

おまえは今まで食ったパンの枚数をおぼえているのか?
「はい、全部おぼえてます。何枚食べたかも」
そう言いながら男はポケットから一枚の紙を取り出した。その紙にはこう書かれていた。

おまえは今まで食ったパンの枚数をおぼえているのか?
「何枚ですか?」
「一万二千三百三十六枚だ」
「えーっ! そんなに食べたんですか!」
「いや、大した枚数じゃないさ。俺の食い方が下手くそなだけさ」

おまえは今まで食ったパンの枚数をおぼえているのか?
「はい、おぼえております」
そう言いながら満面の笑みを浮かべた。

おまえは今まで食ったパンの枚数をおぼえているのか?
「はい、おぼえております」
そう言いながら男は両手をポケットに突っ込んだ。

おまえは今まで食ったパンの枚数をおぼえているのか?
「はい、おぼえております」
「そうか。ならいいが......」
そう言い残して男は立ち去った。

おまえは今まで食ったパンの枚数をおぼえているのか?
「はい、おぼえております」
そう言いながら満面の笑みを浮かべた。

おまえは今まで食ったパンの枚数をおぼえているのか?
「そんなの、覚えてないに決まってるだろ!」
そう怒鳴られても、僕は何も答えられません。ただ黙って首を横に振りました。

終わりに

おまえは今まで食ったパンの枚数をおぼえているのか? の返答を HuggingFace Transformers で生成するッ! って記事を過去に書いたけど、日本語LLMがあると翻訳しなくて良いから楽ですねー。

1
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?