- 履歴一覧
- 差分 を表示
- 現在との差分 を表示
- ソース を表示
- BitNet/1.58 へ行く。
- 1 (2024-07-11 (木) 21:18:22)
- 2 (2024-10-18 (金) 23:51:54)
- https://github.com/Beomi/BitNet-Transformers/
- https://github.com/frodo821/BitNet-Transformers
https://twitter.com/BoufrawFrodo2/status/1763435835935047789 オリジナルのBitNetを1.58bの論文に従って3値にするように修正しました
.†
- 1bit LLMの時代が来る?
- Microsoftが1.58ビットの大規模言語モデルをリリース、行列計算を足し算にできて計算コスト激減へ
- 1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も
- https://twitter.com/andrew_n_carr/status/1770487200234213758?s=12
1.58 bit code is out (in an appendix) https://github.com/microsoft/unilm/blob/master/bitnet/The-Era-of-1-bit-LLMs__Training_Tips_Code_FAQ.pdf
- https://twitter.com/teortaxesTex/status/1773861506674741570
It seems that results of that Microsoft paper about ternary LLMs can be replicated after all – for 3B@100B at least. https://huggingface.co/1bitLLM/bitnet_b1_58-3B