LLM Reddit 5h ago 1 min read
r/LocalLLaMA のベンチマーク投稿は、AMD Mi50 上の llama.cpp で ROCm 7 nightly と Vulkan を比較し、短い dense workload では Vulkan、長い context や一部 MoE では ROCm が有利だと報告した。
r/LocalLLaMA のベンチマーク投稿は、AMD Mi50 上の llama.cpp で ROCm 7 nightly と Vulkan を比較し、短い dense workload では Vulkan、長い context や一部 MoE では ROCm が有利だと報告した。