🦉

OSSZenn

Zenn ← 一覧

AirLLM 70B inference with single 4GB GPU

OSSZenn @xb_bittensor 2026-04-12 18:10:58
📢 X投稿文
AirLLMは、大規模言語モデルの推論メモリ使用量を最適化するOSSです。量子化などの処理を行わずに、70Bモデルのような巨大なLLMを単一の4GB GPUでも動作させられるのが特徴です。 #airllm #AI #OSS #GitHub https://github.com/lyogavin/airllm
タグ
𝕏 Xに投稿
コピーしました