Top > MPT-7B
  • The added line is THIS COLOR.
  • The deleted line is THIS COLOR.
  • Go to MPT-7B.

[[LLM]] > [[MPT-7B]]
[[LLM]] > [[MPT]] > [[MPT-7B]]

- https://www.mosaicml.com/blog/mpt-7b

* デモ [#m6cfdfee]

- https://huggingface.co/spaces/mosaicm

* . [#xab87eec]

- https://twitter.com/ImAI_Eruel/status/1654629078878793729
>
MPT-7Bというオープンソース大規模言語モデルが先ほど公開されたのですが,オープンソースの本命という気がします
https://mosaicml.com/blog/mpt-7b
・商用利用可能
・6万5000トークン使用可能(GPT-4の2倍!)
・7Bと比較的小さいモデルながら,かなり高性能
・日本語を扱え,性能もかなり高い(超重要)
ほとんど理想を完璧に詰め込んだオープンソースLLMという感じで,本格的なChatGPTへの対抗馬となりそう.
日本語性能については,是非以下のデモページから試してほしいです.現時点でもかなりうまく日本語を扱えます.
https://huggingface.co/spaces/mosaicm

Reload   Diff   Front page List of pages Search Recent changes Backup Referer   Help   RSS of recent changes