在开源类别中,出于以下的原因,你可能会考虑过在本地计算机上本地运行LLM :脱机:不需要互联网连接。尽管在使用GPT-4、Bard和claude 2等基于云的模型时,隐私问题可能被夸大了,但在本地运行模型可以避免任何问题。
我买了张显卡坞。具体的情况是这样的,去年好几家国产掌机厂商不都出了用AMD移动端显卡做核心的显卡坞嘛,当时这类产品的定价普遍都要5000元上下,虽然比ROG的显卡坞是便宜了不少,但是依然卖到了一台完整笔记本/Windows掌机的价钱,有多少人愿意支持也就可想而知了。