扫码下载
BTC $77,986.92 +4.11%
ETH $2,450.48 +4.53%
BNB $644.21 +2.99%
XRP $1.49 +4.17%
SOL $90.20 +4.11%
TRX $0.3253 -0.12%
DOGE $0.1009 +3.03%
ADA $0.2644 +3.94%
BCH $459.11 +3.88%
LINK $9.77 +3.33%
HYPE $45.42 +1.40%
AAVE $116.74 +5.98%
SUI $1.02 +3.61%
XLM $0.1747 +5.62%
ZEC $344.36 +1.61%
BTC $77,986.92 +4.11%
ETH $2,450.48 +4.53%
BNB $644.21 +2.99%
XRP $1.49 +4.17%
SOL $90.20 +4.11%
TRX $0.3253 -0.12%
DOGE $0.1009 +3.03%
ADA $0.2644 +3.94%
BCH $459.11 +3.88%
LINK $9.77 +3.33%
HYPE $45.42 +1.40%
AAVE $116.74 +5.98%
SUI $1.02 +3.61%
XLM $0.1747 +5.62%
ZEC $344.36 +1.61%

Vitalik 分享本地私有 LLM 方案,强调隐私与安全优先

2026-04-02 14:53:42
收藏

ChainCatcher 消息,Vitalik Buterin 发文分享其截至 2026 年 4 月的本地化、私有化 LLM 部署方案,核心目标是将隐私、安全与自主可控作为前提,尽量减少远程模型及外部服务接触个人数据的机会,并通过本地推理、文件本地存储及沙箱隔离等方式降低数据泄露、模型越狱及恶意内容利用风险。

在硬件方面,其测试了搭载 NVIDIA 5090 GPU 的笔记本、AMD Ryzen AI Max Pro 128 GB 统一内存设备及 DGX Spark 等方案,并使用 Qwen3.5 35B 与 122B 模型进行本地推理。

其中,5090 笔记本在 35B 模型下可达约 90 tokens/s,AMD 方案约 51 tokens/s,DGX Spark 约 60 tokens/s。Vitalik 表示,其更倾向于基于高性能笔记本构建本地 AI 环境,同时使用 llama-server、llama-swap 及 NixOS 等工具搭建整体工作流。

app_icon
ChainCatcher 与创新者共建Web3世界