llama.cpp

Llama.cpp 是一個基於 C 和 C++ 的 LLM 推理引擎,針對 Apple 晶片進行了優化,並運行 Meta 的 Llama2 模型。

Llama.cpp 優點:

  • 比基於 Python 的解決方案性能更高

  • 在適度的硬體上支援大型型號,如 Llama 7B

  • 提供綁定以使用其他語言構建 AI 應用程式,同時通過Llama.cpp運行推理。

Llama.cpp 缺點:

  • 有限的模型支援

  • 需要工具構建

最后更新于