5
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

日本語のMoEモデル:Swallow-MX-8x7bが公開されました

Posted at

先日、日本語のMoEモデル「Swallow-MX」(Mixtral-8x7Bの継続学習モデル)がHuggingFaceで公開されました。
精度は⇩の通りで、70Bモデル並みの性能を持っているようです。

image.png

私も試してみました。(Colabでは最大40GBのGPUしか使えないため、量子化されたggufバージョンを使用しました)

まず、いつも通りの最適化ユースケースについて聞いてみました。3つ指定したところ、なぜか8つの回答が返ってきました。

image.png

次に、最近Claude3でほぼ完璧にできた最適化コードの生成も試しました。

制約条件までのコードは問題なく動作しましたが、制約条件に間違いがあったため、修正が必要だと感じました。
屏幕截图 2024-03-16 180043.png

興味ある方試してみてください:

Swallow-MX-8x7b:

5
5
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
5
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?