[[LLM]] > [[MPT-7B]] - https://www.mosaicml.com/blog/mpt-7b * デモ [#m6cfdfee] - https://huggingface.co/spaces/mosaicm * . [#xab87eec] - https://twitter.com/ImAI_Eruel/status/1654629078878793729 > MPT-7Bというオープンソース大規模言語モデルが先ほど公開されたのですが,オープンソースの本命という気がします https://mosaicml.com/blog/mpt-7b ・商用利用可能 ・6万5000トークン使用可能(GPT-4の2倍!) ・7Bと比較的小さいモデルながら,かなり高性能 ・日本語を扱え,性能もかなり高い(超重要) ほとんど理想を完璧に詰め込んだオープンソースLLMという感じで,本格的なChatGPTへの対抗馬となりそう. 日本語性能については,是非以下のデモページから試してほしいです.現時点でもかなりうまく日本語を扱えます. https://huggingface.co/spaces/mosaicm |