qwen3:8b

进入官网

Ollama 提供的 qwen3:8b 模型是一个在性能、效率和资源消耗之间取得了出色平衡的选择。它凭借强大的基准性能、独特的双模式推理、超长的上下文支持以及相对合理的硬件门槛,成为了个人用户、开发者和研究者本地部署和体验高质量大语言模型的优秀选择。

阿里云计算有限公司

AI

qwen3-8b

81.9亿

qwen3

文本生成

Q4_K_M

分组查询注意力(GQA)

Apache 2.0

"CPU:8核以上; 内存:16GB以上(DDR4以上); GPU:可以纯CPU推理,使用GPU加速的话,显存要求在8GB以上"

评分:

提交