admin管理员组

文章数量:1663034

llama_cpp_python版本不支持qwen2导致,可以更新到新版

#卸载原有
pip uninstall llama-cpp-python
#安装新版,cuda-version为cu121、cu122、cu123、cu124,python版本仅支持3.10、3.11、3.12
CMAKE_ARGS="-DLLAMA_CUDA=on -DLLAMA_CUBLAS=on" pip install llama-cpp-python \
  --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/<cuda-version>

#假设为cuda 12.1

CMAKE_ARGS="-DLLAMA_CUDA=on -DLLAMA_CUBLAS=on" pip install llama-cpp-python \
  --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cu121

本文标签: 提示ErrorllamacpppythonloadingArchitecture