LiONコミュニティ(※後述)メンバーを想定して書いているので、若干前提知識が必要です。
LinuC Open Network(以下LiON)の社会実装プロジェクトの一環で、ローカルLLMガイドライン構築を推進しています。
詳細は公式ページで!と言いたいんですが内容がまだ間に合っておらず、いったんさわりの部分だけおいておきます。
さて、本当の詳細についてはコミュニティメンバー用のSlackがあり、こちらで情報共有とディスカッションがされています。
とりあえずアカウントを作ってチャンネル追加しておいてもらえるとキャッチアップできるようになってます。
手軽にAI開発したい方へ
ローカルLLMの話ではないですが、GeminiのAPIキーは無料枠があるので、とりあえずAI系サービスでAPIキーが欲しいならここから始めるのがいいんじゃないかなと思ってます。
で、開発でガッツリ使いたくなったりOpenAI APIキーがどうしても必要になったら契約するで良いかなと。
geminiのAPIキーを使う場合、無料枠だと学習データに使われているそうなので、業務データは使わないでください。
本題:
いただいたご相談を、私なりに事前回答します!のコーナーです。
当日のトークディスカッションの時間がなさそうなので、私の話はここに書いてます、と言い張るアレ用。
当日のオープニングトークセッションでも使いたいなぁ、と思ってるので他の参加者が恐縮してしまう恐れがあるマサカリはNGとさせてください。
Q. どうやって情報収集にしてる?
A. 基本はYoutube
元々はXから収集していましたが、Xの情報はこちら側が検証するコストが大きすぎる!
Xのメリットは最新情報を得られる事ですが、その情報の内容を精査・検証までしきれないので、AI以前の体制でも最新情報のキャッチアップがしんどかったのに更に速度が上がってついていけなくなりました。
そうなると、Xのアカウント自体がゴミ箱扱いになり運用が止まりました。Xでの情報収集は私には向いていないようです。
逆に言えばこれはチャンスであり、Xの内容を自動精査する仕組みができれば非常に有用なツール・サービスになり得ます。お金を払ってでも欲しい!
Q. AI(or ローカルLLM)を今後使ってやりたいと思っていること
A. 今払ってる金額コストを落としたい
おそらくローカルLLMが進化していっても、将来的にハードウェアスペックによる問題は解決不可能な気がするのでなんだかんだでOpenAIやAnthropicには課金をし続けるとは思うのですが、課金額を下げられないか?というのは結構重たい悩みです…
私のローカル環境をClaudeナイズしまくっているので他AIサービス・モデルに変えるのは結構キツい(=既にAIベンダーロックインされてしまっている)のですが、AIモデルからAIモデルへのスキトラはかなり早いスピードでできるはず。なのでロックインしてるからダメ!っていう危機感は今のところないです。それより金額と課金する(しなければならない)サービスが多すぎる。
下手したらそのサービスの代替か下位互換レベルは自分で作るつもりでやらないとやってられません。
Q. AIを使っているときの困りごと
A. 上に同じ
- キャッチアップスピードについていけない
- AIサービスが氾濫しまくっていて取捨選択が難しい
に加えて制限がきつすぎる!
Claude5xMaxプランですら2時間で5時間リミットになるし、3日で週間リミットになるような使い方をしているので20xかなぁ。
ほぼ個人利用でこれです。業務利用なんかでやり始めたら20x分一人で食い尽くす自信があります。というか自信しかないです。
後述しますが、私自身もコーディングエージェントを使い倒していますが、ある程度任せられそうなタスクはAIオーケストレーターを立ててそっちにタスクを回しています。で、勝手な推測ですが私より非効率的な使い方をしているのか処理量が私以上に早いからか、あっという間に制限がきます。体感ですが5時間リミットで30-1時間も持たないんじゃないですかね?
週間リミットが余っていて、5時間リミットが空いている時に急いで片付けたいタスクがあってAIオーケストレーターに投げれそうなものがあればとりあえず依頼しているので、最近は5xですらリミットに引っかかってばかりです。
Q. 業務での使い方以外に、趣味やプライベートで使っているとしたらどんな使い方があるか知りたいです。
A. 上の通り
とはいえ、まだまだ代行できているとは思えないです。
ルール側の問題かコンテキストの問題か
Q. DRAMとSSDの価格高騰について
A. 多分来年はPC買わない(買えない)と思いますが、「いつまでPCを買わない状態を続けるのか?」というのが次の話になりそう
思うに、フリーミアムビジネスモデルが通用しなくなる時代もそう遠くない未来の話になるんじゃないか?というぐらいには危機感持ってます。
ローカルLLMに無理やりこじつけると、これ以上安くならないという前提で(米とか玉子とか牛乳とか)今も高いですが買えるだけ買っておいて、可能なかぎりローカルの資源によせた方がいいんじゃないかと思ってます。
私事ですが、AI以外だといまGitHubにどっぷり依存しているので、GitLabなりのバックアップ環境も作っておいた方が良さそうな気がしています。
Q. どのAIモデルを使っているのか?
A. 私はQwen2.5-32B、AIオーケストレーター(Gemini)はDeepSeek-R1-32B
MacStudio2022モデルを使ってます。個人事業主なので当時30万円以内で買えたローエンドモデルですが気に入ってます。
ただし、使用感としては使えるというよりは動くレベルで、しばらく使ってみたらスワップ15GBとかでした。業務利用は無理です。せめて64GBはほしい
Q. フィジカルAIについて
A. (ネタがありません💦)
ロボティクスは専門分野ではないんですが、先駆けでペッパーくんとか今だとLOBOTのイメージです。
エッジコンピューティングに需要はあるので、同じようにエッジAIも使いたいよね!という要望は一定あるはずで、LLMとは言わないまでもSLMなのかな、とは思います。
変なハルシネーションを頑張られるよりは、AI自身が分からない事は分からないと言いやすい時代があってもいいかもしれません。そう言う意味では初期の頃のnotebooklmの仕組みは不便だけどよかったかもしれません。