扫码下载
BTC $79,188.53 +4.70%
ETH $2,408.48 +4.69%
BNB $649.00 +2.90%
XRP $1.46 +1.73%
SOL $88.35 +3.03%
TRX $0.3291 -0.68%
DOGE $0.0975 +3.12%
ADA $0.2554 +2.94%
BCH $464.66 +4.40%
LINK $9.49 +1.10%
HYPE $40.93 +2.54%
AAVE $94.23 +2.30%
SUI $0.9703 +2.91%
XLM $0.1812 +2.44%
ZEC $323.74 +1.29%
BTC $79,188.53 +4.70%
ETH $2,408.48 +4.69%
BNB $649.00 +2.90%
XRP $1.46 +1.73%
SOL $88.35 +3.03%
TRX $0.3291 -0.68%
DOGE $0.0975 +3.12%
ADA $0.2554 +2.94%
BCH $464.66 +4.40%
LINK $9.49 +1.10%
HYPE $40.93 +2.54%
AAVE $94.23 +2.30%
SUI $0.9703 +2.91%
XLM $0.1812 +2.44%
ZEC $323.74 +1.29%

Vitalik 分享本地私有 LLM 方案,强调隐私与安全优先

2026-04-02 14:53:42
收藏

ChainCatcher 消息,Vitalik Buterin 发文分享其截至 2026 年 4 月的本地化、私有化 LLM 部署方案,核心目标是将隐私、安全与自主可控作为前提,尽量减少远程模型及外部服务接触个人数据的机会,并通过本地推理、文件本地存储及沙箱隔离等方式降低数据泄露、模型越狱及恶意内容利用风险。

在硬件方面,其测试了搭载 NVIDIA 5090 GPU 的笔记本、AMD Ryzen AI Max Pro 128 GB 统一内存设备及 DGX Spark 等方案,并使用 Qwen3.5 35B 与 122B 模型进行本地推理。

其中,5090 笔记本在 35B 模型下可达约 90 tokens/s,AMD 方案约 51 tokens/s,DGX Spark 约 60 tokens/s。Vitalik 表示,其更倾向于基于高性能笔记本构建本地 AI 环境,同时使用 llama-server、llama-swap 及 NixOS 等工具搭建整体工作流。

app_icon
ChainCatcher 与创新者共建Web3世界