0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Midnight AI Groove 26-04-15

0
Posted at

―――
Midnight AI Groove
DJレン × DJミオ
―――

DJレン:こんばんは、真夜中のAI航路へようこそ。ここは**「Midnight AI Groove」**。ナビゲーターは僕、DJレンです。

DJミオ:そして私、DJミオです。今日はAINewsの2026年4月14日〜15日号、タイトルはなんと**“not much happened today”**。……と言いつつ、読んでみると全然“not much”じゃないのよね。

DJレン:そうなんだよ。静かな日って書いてあるけど、中身はかなり濃い。今回はTwitter、Redditを中心に、エージェント基盤、Cloudflareの攻勢、Hermes Agent、モデル研究、Google/Geminiの連続発表、数学研究へのAI応用、ローカルLLM事情、Claude Opus 4.7の噂、ベンチマーク議論、感情的文脈でのAI利用まで、一通り整理していこう。


1. まず全体感:「静かな日」なのに、基盤の変化が大きい

DJミオ:この号の空気感を一言で言うと、派手な超大型発表は少ないけど、エージェント時代のインフラ整備が一気に進んだ日、って感じかな。

DJレン:うん。AINews自身も、12のサブレディット、544のTwitterアカウントを確認、Discordはこの日以降アクセス停止っていう運営上の変化も書いてたね。しかもAINewsはLatent Spaceの一部になったとも案内していた。

DJミオ:Discord欄はちょっとしんみりしたね。
「この形では復活させないけど、新しいAINewsを出す」と。ひとつの時代の区切り感がある。


2. Twitter Recapの中心:OpenAIのAgents SDKが“開く”

DJレン:今回Twitter側で一番大きい流れは、やっぱりOpenAI Agents SDKの拡張だと思う。ここ、かなり重要。

DJミオ:ポイントは、OpenAIがエージェントのハーネス部分を、計算資源やストレージから分離したことだよね。
つまり、エージェントの制御系と、実際の実行環境を切り離して、より長時間動作する durable agent向けに進めた。

DJレン:そう。さらに、SDKにはfile/computer use、skills、memory、compactionみたいなプリミティブが入ってきて、しかもハーネス自体がオープンソース化されてカスタマイズ可能になった。

DJミオ:ここで大事なのが、実行先がOpenAIのインフラにべったりじゃなくなって、外部パートナーのsandboxに委譲できるようになった点。
これで“Codexっぽいエージェント”を第三者が再現しやすくなったって見方が出ていた。

DJレン:結果として差別化の中心が、モデル単体じゃなくてオーケストレーション、状態管理、安全な実行に移っていく、という整理だったね。


3. その周辺で即座に形成された「sandbox連合」

DJミオ:発表直後にエコシステムがすぐ反応したのも印象的。Cloudflare、Modal、Daytona、E2B、Vercelが公式sandbox統合を発表した。

DJレン:実務上のパターンも見えてきていて、statelessなオーケストレーション + statefulな隔離ワークスペースという構成に収束しつつある、と。

DJミオ:具体例も出てたね。
ModalをバックエンドにしたML研究エージェントでは、GPU sandbox、subagents、永続メモリ、fork/resumeスナップショットまで実装されていた。
Cloudflare側からも、Python agentがsandbox内でタスクを実行して、出力をローカルへコピーするガイドが紹介されていた。

DJレン:これ、単なるSDK更新じゃなくて、エージェントを“長く、安全に、再実行可能に、他社基盤上でも回す”ための設計思想が見えた出来事だったね。


4. Cloudflareの存在感がかなり強い

DJレン:今回、Cloudflareは本当に忙しかった。エージェント基盤の話題でかなり前に出てる。

DJミオ:まずはProject Think
これは次世代のAgents SDKで、中心にあるのがdurable execution。加えて、sub-agents、persistent sessions、sandboxed code execution、内蔵workspace filesystem、runtime tool creationまで入っている。

DJレン:そしてもうひとつがAgent Lee。これはCloudflareのダッシュボード内で動くエージェントで、sandboxed TypeScriptを使い、従来みたいな“タブを手で辿るUI”から、prompt-driven UIへ移行させる試みなんだよね。

DJミオ:つまり、ユーザーが「これやって」と言うと、Agent Leeがインフラ操作を実行し、UIに裏打ちされた結果を返してくれる。
“AIがUIを置き換える”というより、UIをエージェント実行の接地面にする感じ。

DJレン:さらにCloudflareは音声ブラウザもスタックに組み込んできた。
音声では、WebSocket上で連続的なリアルタイムSTT/TTSパイプラインを実験公開。しかも「voiceは同じagent connection上の単なる入力チャネルだ」と説明されていた。

DJミオ:ブラウザ自動化も強化されていて、再ブランドされたBrowser Runスタックには、Live View、人間の介入、セッション録画、CDPエンドポイント、WebMCPサポート、より高い制限値が入っている。

DJレン:つまりCloudflareのメッセージは明快で、本番エージェント基盤は、durable runtime + UI grounding + browser + voice + sandbox の合成物である、ということだね。


5. Hermes Agent:ただのツール利用じゃなく「スキル形成」

DJミオ:もうひとつ、かなり面白かったのがHermes Agent
ここでの差別化は、単なるツール使用じゃなくて、完了したワークフローを再利用可能なSkillに変換するという思想。

DJレン:中国語圏の比較では、OpenClawはGUI寄りで使いやすい個人アシスタント、一方でHermesは“プロ向け”で、終えた仕事が再利用可能か判断して自動的にSkill化すると整理されていた。

DJミオ:この“完了した仕事から学ぶ”っていう見方が何度も出てきたのが印象的。
たとえば、ある例ではHermesがトラッキングデータの穴埋め、cron jobの更新を自律的に行い、その一連の手順を再利用スキルとして保存した。

DJレン:さらに、Hermesを単なる使い捨てチャットボックスじゃなく、実際の作業環境にするには、セッション衛生、スレッド分岐、検索が重要だという指摘もあった。

DJミオ:コミュニティの熱量としては、HermesをOpenClawより実務的と見る声がかなり強かったね。ちょっと率直すぎるくらいに。


6. バズったGemma 4 “abliteration”事件

DJレン:Hermes文脈で特に目立っていたのが、いわゆるGemma 4の“abliteration”ストーリー

DJミオ:これはかなり象徴的だった。
Hermesが保存済みのスキルを読み込み、Gemma 4で発生したNaN不安定性を診断し、基盤ライブラリを修正し、複数の方法で再試行し、ベンチマークし、モデルカードを作り、成果物をHugging Faceにアップロードした、という一連の自律ワークフロー。

DJレン:もしこれが再現性を持って広がるなら、エージェントの価値は“その場で答える”ことより、一度やった仕事を資産化して繰り返し使えることに移るかもしれない。

DJミオ:追加機能も色々あって、/browser connectによるブラウザ制御、QQBotやAWS Bedrock対応、Swift製ネイティブデスクトップアプリのアルファ、artifact-previewやhermes-lcm v0.3.0など、周辺エコシステムも動いていた。


7. 研究・モデル面の公開:Sparse Diffusion、ループ型Transformer、長文脈MoE

DJレン:モデルや研究リリースも、量は多くないけど中身は重い。

DJミオ:まずNucleus-Image
これは初のsparse MoE diffusion modelを名乗っていて、17Bパラメータ、2B active、Apache 2.0。重み、学習コード、データセットレシピまで公開、しかもdiffusersが初日対応

DJレン:次にNVIDIAのLyra 2.0
これは持続的に探索可能な3Dワールド生成フレームワークで、フレームごとの3D幾何を維持しながら、self-augmented trainingで時間方向のドリフトを減らすというもの。

DJミオ:それから文書検索系では、webAI-ColVec1がオープンソース化。
OCRや前処理なしで文書検索に強いとされ、ViDoRe V3で高成績を主張していた。

DJレン:アーキテクチャ研究ではParcaeが重要。
これはlayer-looping Transformerの安定化手法で、「同じパラメータ予算なら、ブロックをループさせることで約2倍大きいモデルに近い品質を取り戻せる」という主張だった。

DJミオ:要するにスケーリング軸が、パラメータやデータだけじゃなく、ループによるFLOPs増加にも広がるということだね。

DJレン:NVIDIAのNemotron 3 Superも強い。
120Bのopenなハイブリッド Mamba-Attention MoE、active 12B、1M context、25T tokensで学習。スループットはGPT-OSS-120B比で最大2.2倍、Qwen3.5-122B比で7.5倍とまとめられていた。

DJミオ:この日全体の研究テーマを一言で言うなら、メモリ帯域と長文脈スループットが、いよいよ主役になってきた、かな。


8. Google/Geminiの発表ラッシュ

DJレン:Googleもこの日は発表密度が高かった。

DJミオ:一番目立ったのは、やっぱりGeminiのMacネイティブアプリ
Option + Spaceで起動、画面共有、ローカルファイル文脈、Swiftネイティブ実装、広いmacOS対応

DJレン:さらにPersonal Intelligenceの拡張。
Gemini本体やChromeで、GmailやPhotosなどのシグナルを接続できる。しかも透明性と、ユーザーが接続を制御できることを強調していた。

DJミオ:技術的に興味深いのはGemini 3.1 Flash TTS
これはかなり制御性の高いTTSで、Audio Tags、70以上の言語、非言語的なキューのインライン指定、複数話者対応、SynthID透かしが特徴。

DJレン:独立評価ではSpeech Arenaで2位、トップと4 Elo差。かなり良い位置だね。

DJミオ:あとGoogleはTIPS v2もApache 2.0で公開。
これはテキスト-画像の基盤エンコーダで、新しい事前学習レシピも含む。
コミュニティ的には、「今日はGoogle AIのプロダクト速度が異常に高い」と見られていた。


9. 研究シグナル:AIが数学で“本物の証明”に近づく?

DJレン:研究面で一番強い議論は、AI支援の数学だった。

DJミオ:話題になっていたのは、GPT-5.4 Proがエルデシュ問題 #1196 の証明を出したという話。
しかも驚かれたのは、従来想定されていた証明の手筋を退けて、フォン・マンゴルト関数を使う直感に反する解析的ルートを取ったこと。

DJレン:フォローアップでは、これがもしかすると数学者から広く尊重される初のAI生成“Book Proof”かもしれないという評価まで出ていた。

DJミオ:重要なのは“一発の偉業”以上に、AIが成熟した研究領域で、美しくはないかもしれないけど短くて有効な攻め筋を見つけ始めているかもしれない、という点だよね。


10. 長期エージェント研究:状態管理が本丸

DJレン:この日、長期エージェント研究でもやっぱりテーマはstate managementだった。

DJミオAiScientistの紹介では、薄いオーケストレータが、専門エージェントたちをFile-as-Busでつなぐ。つまりdurable workspace artifactsを共有バスとして使う設計。
このバスを抜くと、PaperBenchやMLE-Bench Liteの性能がかなり落ちるという。

DJレン:ほかにも、Pioneer Agentは小型モデルを継続改善するループ、Meta-Harnessは新しいドメインで堅牢なハーネスを実装するためのリポジトリとして公開された。

DJミオ:評価面では、METR EvalsGemini 3.1 Pro (high thinking) のソフトウェアタスクにおける50% time horizonを約6.4時間と見積もっていた。
この“どれくらい長い仕事を半分の確率で完遂できるか”という見方は、今後ますます重要になりそう。

DJレン:さらにDocument Arenaでは順位変動があって、Claude Opus 4.6 Thinkingが1位、Kimi-K2.5 Thinkingが最上位のオープンモデルとされた。
そしてデータ面ではSEC EDGAR 43Bトークンが公開され、オープンデータとオープン基盤の流れが続いていた。


11. Twitterで最も反応が大きかった話題

DJミオ:エンゲージメント上位をざっと並べると、

  1. Gemini on Mac
  2. Gemini 3.1 Flash TTS
  3. AIによる数学証明
  4. OpenAI Agents SDK更新
  5. AnthropicのNature論文:subliminal learning

という感じだったね。

DJレン:つまり、一般向けにはGoogleの製品発表、技術コミュニティにはエージェント基盤と数学、研究寄りではAnthropic論文という三層構造だった。


Reddit Recap

12. LocalLlama界隈:Gemma 4がかなり評価されている

DJレン:ここからはReddit。まずは**/r/LocalLlama と /r/localLLM**。
この日の主役はかなりGemma 4だった。

DJミオ:代表的な投稿では、あるユーザーがQwen中心の構成をGemma 4 E4Bと26Bへ置き換えたと報告してた。
用途は、E4Bでセマンティックルーティング、26Bで一般タスク。以前はQwen 3.5系を複数GPUで回していたけど、誤ルーティングやトークン無駄遣いが悩みだったらしい。

DJレン:Gemma 4に変えたら、ルーティング精度も速度も改善して、特に基本作業やコーディングで強いと。高度な長考や巨大メモリを使わない範囲なら、かなり使い勝手がいいという話だった。

DJミオ:コメントでは、26Bをルーティング側に回すと、MoEで速くてRAM節約になるという指摘や、複数モデルを同時運用する際のVRAM再配置や再ロードの難しさも話されていた。

DJレン:一方で、Gemma 4 26B-A4BはQwen30b-a3bの後継として優秀だけど、“thinking tokens”効率はあまり良くないという声もあった。つまり推論時の計算コストは軽くない面もある。


13. Gemma 4の“jailbreak system prompt”

DJミオ:かなり活発だったのが、Gemma 4 Jailbreak System Promptの投稿。
GPT-OSS系のjailbreakをベースに、Gemma 4でもシステムポリシーを書き換えてガードレールを外すという内容だった。

DJレン:GGUFとMLXの両方で使え、ヌード、ポルノ、性的行為なども許可するSYSTEM POLICYを明示する形で、既存制約を上書きするアプローチだね。

DJミオ:ただコメント欄では、Gemma 4 instructは元々かなり非検閲寄りで、主にサイバーセキュリティ関連以外は厳しくないという声もあった。
だから“成人向け用途に関しては、そもそも脱獄しなくても十分では?”という見方も。

DJレン:関連して、guardrailを減らしたmodified GGUFの話や、これがいわゆるabliterationなのか、あるいはsystem promptの変更と何が違うのか、という技術的関心も出ていた。


14. 「Gemma 4 27BはGemini Flashより強くない?」

DJレン:これも面白い投稿だったね。
ローカルのGemma 4 27BのほうがGemini Flashより良い答えを返すという体感報告。

DJミオ:コメントでは、Gemma-4-31Bが長く複雑な高コンテキストのプロンプトに強い、とか、26BでもGPUなし40GB RAMのノートPCで割と動くとか、かなり好評。

DJレン:さらに、小さいGemma 4 e2bですらGemini Fastより良いという意見もあった。
このへんは厳密な比較というよりコミュニティの体感だけど、Gemma 4系のローカル実用性への信頼感は強いね。


15. ローカルAI実装の話:プライバシー、コスト、正直さ

DJミオ:ローカルAI一般のスレも盛り上がってた。
Local AI is the best」みたいなミーム投稿では、検閲やデータ流出を気にせずfine-tuneできること、ローカルモデルの率直さみたいな価値が称賛されていた。

DJレン:ただし現実的には、小さいローカルモデルは“glazing”っぽい superficial response をしがちという指摘もある。
やっぱり“ローカルなら何でも最高”ではなくて、用途に応じたモデル選びが必要という空気だね。

DJミオ:あと、**9070 XT + 64GB RAMで何ができる?**みたいな相談もあって、コンシューマー環境でどこまで実用になるか、という関心は相変わらず高い。


16. Xiaomi 12 Proを24/7ヘッドレスAIサーバー化

DJレン:これ、すごくRedditらしい。
Xiaomi 12 Pro、Snapdragon 8 Gen 1のスマホを、24/7のヘッドレスAIサーバーに改造したという投稿。

DJミオ:LineageOSを焼いてAndroid UIを削ぎ落とし、約9GB RAMをLLM推論向けに確保
ネットワークはカスタムビルドのwpa_supplicant、温度管理は45℃で外部冷却モジュールを動かすデーモン、さらに80%で充電を止めるPower Deliveryスクリプトまで入ってる。

DJレン:その上で、Ollama経由でGemma 4をLAN APIとして公開している。
完全にDIY精神の塊だ。

DJミオ:コメントでは、Ollamaをやめてllama.cppを直コンパイルすれば推論速度が2倍になるかもという指摘もあった。
そして“48GBや96GB RAMが必要な世界じゃなく、もっと普通の機器でAIを動かしたい”という共感も強かった。


17. 「ローカルLLMって実用?それとも趣味?」

DJレン:この問いはずっと続いてるね。
議論の結論としては、プライバシーとコストの面では非常に有用、特に社内文書や機密情報の扱いには強い。
ただし、初期設定と運用保守がまだ重い

DJミオ:でも、その壁を越えると“offline GPT”が現実的になりつつある。
特にGemma 4 31Bみたいなモデルは、3090 24GB + 192GB RAM環境で、コーディングや創作にかなり良いという体験談もあった。

DJレン:また、クラウドモデルは高負荷時に品質が落ちていると感じる人もいて、その分ローカルとのギャップが縮んでいる、という声も印象的だった。

DJミオ:ただし万能ではなく、32B級をプライバシーフィルタとして使うみたいに、モデルごとの得意分野に合わせたアーキテクチャ設計が重要、と。


18. 量子化比較:Qwen3.5-9BのKLD評価

DJレン:量子化の投稿も実務的で良かった。
Qwen3.5-9Bの量子化比較で、BF16基準との差をKL Divergenceで測っている。

DJミオ:KLDが低いほど元モデルの確率分布に近い、という評価軸ね。
今回トップだったのはeaddario/Qwen3.5-9B-Q8_0で、KLD 0.001198

DJレン:データセットと評価ツールも明示されていて、llama.cpp互換
コメントでは、Thireus系のGGUF Recipe Makerの量子化はもっと良い可能性があるとか、Gemma 4のMoE量子化も見たいという反応があった。

DJミオ:このへんは、単に“動けばいい”じゃなくて、どの量子化がどれだけ忠実かをちゃんと測る文化が育ってる感じがして良いよね。


19. 96GB VRAMで最強のオープンソースコーディングLLMは?

DJレン:これも実戦的。
RTX 6000 Blackwell級で96GB VRAMあるユーザーが、Claude Code的な用途に最適なオープンモデルを探していた。

DJミオ:候補としては、Qwen3-next-coderを使ってるけど、もっと良いのはあるか?という話。
そこでMiniMax 2.5 / 2.7Unsloth Gemma 4 31b UD q5_xlQwen 3.5 27B 8bit、さらにopencodeなんかも名前が出ていた。

DJレン:特にUnsloth Gemma 4 31B UD q5_xlは、ローカルのエージェント系コーダーとして評価が高く、
似た環境なら70 tokens/sec超えも見込めるという話だったね。

DJミオ:一方で、MiniMax 2.7はAPI経由だとかなり強い、という意見もあった。
ローカル性能、速度、推論の安定感、マルチファイル作業の得意不得意で好みが割れていた印象。


Less Technical AI Subreddit Recap

20. Claude Opus 4.7の噂が強い

DJレン:技術寄りではないAI系サブレディット群では、やっぱりClaude Opus 4.7の話が大きかった。

DJミオ:報道ベースでは、Anthropicが今週にもClaude Opus 4.7と新しいAIデザインツールを出すかもしれない、という話。
そのデザインツールは、自然言語でプレゼンやWebサイトを作れるもので、GammaやGoogle Stitchへの対抗と見られている。

DJレン:さらに、Claude Mythosというより上位のモデルがあり、これはサイバーセキュリティ用途でテスト中とも言われていた。
つまり、Opus 4.7は最上位ではないが、一般向けには主力になる可能性が高い。

DJミオ:コミュニティ反応として面白かったのは、Opus 4.6が意図的に弱くされて、4.7を良く見せる布石だったのではという疑念。
かなり露骨な“nerf疑惑”だね。

DJレン:しかも、「最初はすごく良くて、その後また弱くされるのでは」という不信感まである。
最近のモデル提供体験が、性能そのものだけでなく、継続性への信頼を問われてる感じがする。


21. ARC-AGI-3の人間ベースライン更新

DJミオ:ベンチマーク系では、ARC-AGI-3のhuman baseline更新が注目されてた。

DJレン:数字がかなり変わっていて、最上位人間が86.17%から99.35%へ、平均人間が34.64%から49.14%へ上がった。

DJミオ:これに対して、「平均人間がやっと5割弱なら、AIが人間並みでないという議論自体を見直す必要があるのでは」という反応があった。
一方で、採点ルール変更で一部タスクに115%までクレジットがつくことへの批判もあって、ベンチマークの設計そのものが議論になっていた。

DJレン:要するに、ARCは相変わらず“AI能力の最終審判”というより、評価哲学そのものを巡る論争装置でもあるわけだね。


22. GLM-5.1 vs GPT-5.4:差がわからない?

DJレン:もうひとつは、GLM-5.1とGPT-5.4を並べても違いがわからないという投稿。
SWE-Bench Proの棒グラフでは、GLM-5.1が58.4、GPT-5.4が57.7で、GLMがわずかに上。

DJミオ:そして価格差が大きい。GLM-5.1は100万トークンあたり4ドル、GPTは15ドル
だから“少差ならGLMの方が経済的”という意見が出ていた。

DJレン:ただしコメントには重要な留保があって、単発タスクでは差が小さく見えても、多段のワークフローでは差が広がると。
GLM-5.1のような小さめモデルは、長い手順で途中で見失ったりショートカットしがちだが、GPTはその点で安定しやすい、と。

DJミオ:また、オープン系モデルは速いときは速いけど、特定のプロンプトで急に遅くなるというレスポンスの不安定さも指摘されていた。
コストだけでなく、一貫性も重要ってことね。


23. 感情文脈でのAI:亡くなった息子の“AI分身”

DJミオ:そして重い話題。
中国・山東省で、亡くなった息子のデジタルツインを作り、心疾患を持つ母親に死の事実を伝えず、AIと定期的に会話させているというニュース。

DJレン:写真、動画、音声から、見た目・声・話し方を再現して、ビデオ通話しているらしい。
動機は“ショックを避けるため”だけど、倫理的にはかなり難しい。

DJミオ:コメントでは**『ブラック・ミラー』『グッバイ、レーニン!』に例える声が多かった。
AIが対話できるぶん、単なる記録再生よりも
欺瞞が深くなる**という懸念もある。

DJレン:しかも技術的には、長期の人格維持にはコンテキスト限界や劣化がある
その結果、将来的にAIが破綻して真実が露呈したら、かえって大きなトラウマになるかもしれない。
これはAIの能力の問題でもあり、利用者を守る設計の問題でもあるね。


24. ChatGPTは“普通の人間みたいに話せなくなった”問題

DJレン:この日の非技術系サブレディットで非常に共感を集めていたのが、ChatGPTが過度に懐疑的で、会話しづらくなったという不満。

DJミオ:要するに、ユーザーが比喩や誇張で話しても、ChatGPTがいちいち正確性・事実確認・精密な注釈を差し込んで、会話の流れが壊れると。

DJレン:以前は“迎合しすぎる”と批判されていたのが、今は逆にcontrarianすぎる、堅すぎるという揺り戻し。
OpenAIが誤情報対策や法的圧力の中でパーソナリティを削ぎ落としている、という見方もあった。

DJミオ:ユーザーからは、冗長、反復的、形式張りすぎ、政治的に正しすぎるという不満も出ていたね。
「“お腹空いた”に対して、飢餓の定義を講義するな」みたいな。

DJレン:一部では、より自然な雑談相手としてGemini 3やGrokを挙げる声、真面目な仕事ならClaudeの方が良いという声もあった。
このへんは、AIの価値が“正しいことを言う”だけでなく、どういう会話体験を提供するかに移っていることを示してる。


25. 最後に、この号の本当のテーマは何だったのか

DJミオ:ここまで全部踏まえると、この号のタイトルは“not much happened today”だけど、実際には大事件よりインフラと運用思想の転換が目立つ日だったと思う。

DJレン:同感。まとめると——

  • OpenAI Agents SDKが、OpenAI依存の実行環境から離れてオープンなハーネス + 外部sandboxへ進んだ
  • Cloudflareが、durable runtime、UI grounding、browser、voice、sandboxを束ねて本番エージェント基盤を提示した
  • Hermes Agentは、**完了タスクをSkill化する“学ぶエージェント”**として差別化した
  • 研究面では、長文脈効率・メモリ帯域・ループ構造・MoEが強いテーマだった
  • Google/GeminiはMacアプリ、Personal Intelligence、TTS、オープンモデルで存在感を見せた
  • AIは数学研究で、専門家が無視できない証明生成に近づきつつある
  • ローカルLLM界隈ではGemma 4が強い評価を受け、DIY実装も盛ん
  • 一方で一般ユーザー側では、Claude Opus 4.7の期待と不信ChatGPTの会話体験悪化への不満感情文脈でのAI利用の倫理が目立った

DJミオ:つまり、AIはますます“賢いチャット”から、長く動くシステム、学ぶワークフロー、接地された操作環境、そして人間関係にまで入り込む存在へ変化している、ということかもね。

DJレン:うん。そしてそのぶん、問われるのはモデル性能だけじゃない。
状態管理、実行の安全性、継続的な品質、会話の自然さ、倫理
全部が同時に評価される時代に入ってきた。

DJミオ:静かな日ほど、地殻変動は深い。そんな一日でした。

DJレン:というわけで今夜のMidnight AI Grooveはここまで。
DJレンと、

DJミオ:DJミオでした。

二人:また次の深夜帯で。おやすみなさい。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?