首页 > Python资料 博客日记
llama-cpp-python
2024-09-06 19:00:14Python资料围观152次
文章目录
一、关于 llama-cpp-python
Python bindings for llama.cpp
- github : https://github.com/abetlen/llama-cpp-python
- 文档:https://llama-cpp-python.readthedocs.io/en/latest/
简单的Python绑定**@ggerganov的** llama.cpp
库。 该套餐提供:
文件可在https://llama-cpp-python.readthedocs.io/en/latest查阅。
二、安装
要求:
- Python 3.8+
-
- Linux:gcc或clang
- Windows:Visual Studio或MinGW
- MacOS: Xcode
要安装包,请运行:
pip install llama-cpp-python
这也将从源代码构建llama.cpp
并将其与此python包一起安装。
如果失败,请将--verbose
添加到pip install
中,请参阅完整的cmake构建日志。
预制 Whell (新)
也可以安装具有基本CPU支持的预构建轮子。
pip install llama-cpp-python \
--extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu
安装配置
llama.cpp
支持许多硬件加速后端以加速推理以及后端特定选项。有关完整列表,请参阅llama.cpp自述文件。
所有llama.cpp
cmake构建选项都可以在安装过程中通过CMAKE_ARGS
环境变量或--config-settings / -C
cli标志进行设置。
环境变量
# Linux and Mac
CMAKE_ARGS="-DGGML_BLAS=ON -DGGML_BLAS_VENDOR=OpenBLAS" \
pip install llama-cpp-python
# Windows
$env:CMAKE_ARGS = "-DGGML_BLAS=ON -DGGML_BLAS_VENDOR=OpenBLAS"
pip install llama-cpp-python
CLI / requirements.txt
也可以通过 pip install -C / --config-settings
命令设置 和保存到 requirements.txt 文件:
pip install --upgrade pip # ensure pip is up to date
pip install llama-cpp-python \
-C cmake.args="-DGGML_BLAS=ON;-DGGML_BLAS_VENDOR=OpenBLAS"
# requirements.txt
llama-cpp-python -C cmake.args="-DGGML_BLAS=ON;-DGGML_BLAS_VENDOR=OpenBLAS"
支持的后端
以下是一些常见的后端、它们的构建命令和所需的任何其他环境变量。
OpenBLAS (CPU)
To install with OpenBLAS, set the GGML_BLAS and GGML_BLAS_VENDOR environment variables before installing:
CMAKE_ARGS="-DGGML_BLAS=ON -DGGML_BLAS_VENDOR=OpenBLAS" pip install llama-cpp-python
CUDA、Metal、hipBLAS (ROCm)、Vulkan、SYCL、RPC 等,不一一列举
Windows 笔记
MacOS笔记
详细的MacOS金属GPU安装留档可在docs/install/macos.md
升级和重新安装
要升级和重建llama-cpp-python
,请添加--upgrade --force-reinstall --no-cache-dir
标志到pip install
命令以确保从源代码重建包。
三、高级API
高级API通过Llama
类提供简单的托管接口。
1、简单示例
下面是一个简短的示例,演示了如何使用高级API来完成基本文本:
from llama_cpp import Llama
llm = Llama(
model_path="./models/7B/llama-model.gguf",
# n_gpu_layers=-1, # Uncomment to use GPU acceleration
# seed=1337, # Uncomment to set a specific seed
# n_ctx=2048, # Uncomment to increase the context window
)
output = llm(
"Q: Name the planets in the solar system? A: ", # Prompt
max_tokens=32, # Generate up to 32 tokens, set to None to generate up to the end of the context window
stop=["Q:", "\n"], # Stop generating just before the model would generate a new question
echo=True # Echo the prompt back in the output
) # Generate a completion, can also call create_completion
print(output)
默认情况下llama-cpp-python
以OpenAI兼容格式生成完成:
{
"id": "cmpl-xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx",
"object": "text_completion",
"created": 1679561337,
"model": "./models/7B/llama-model.gguf",
"choices": [
{
"text": "Q: Name the planets in the solar system? A: Mercury, Venus, Earth, Mars, Jupiter, Saturn, Uranus, Neptune and Pluto.",
"index": 0,
"logprobs": None,
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 14,
"completion_tokens": 28,
"total_tokens": 42
}
}
可以通过Llama
类的__call__
和create_completion
方法完成文本。
2、从 Hugging Face Hub 中提取模型
您可以使用from_pretrained
方法直接从 Hugging Face 下载gguf
格式的Llama
模型。
您需要安装huggingface-hub
软件包才能使用此功能(pip install huggingface-hub
)。
llm = Llama.from_pretrained(
repo_id="Qwen/Qwen2-0.5B-Instruct-GGUF",
filename="*q8_0.gguf",
verbose=False
)
默认情况下from_pretrained
会将模型下载到huggingface缓存目录,然后您可以使用huggingface-cli
工具管理已安装的模型文件。
3、聊天完成
高级API还提供了一个简单的聊天完成界面。
聊天完成要求模型知道如何将消息格式化为单个提示。 这个Llama
类使用预先注册的聊天格式(即chatml
、llama-2
、gemma
等)或通过提供自定义聊天处理程序对象来实现这一点。
该模型将使用以下优先顺序将消息格式化为单个提示:
- 使用
chat_handler
如果提供 - 使用
chat_format
如果提供 - 使用
tokenizer.chat_template
来自gguf
模型的元数据(应该适用于大多数新模型,旧模型可能没有这个) - 否则就回到
llama-2
聊天模式
设置verbose=True
以查看选定的聊天格式。
from llama_cpp import Llama
llm = Llama(
model_path="path/to/llama-2/llama-model.gguf",
chat_format="llama-2"
)
llm.create_chat_completion(
messages = [
{"role": "system", "content": "You are an assistant who perfectly describes images."},
{
"role": "user",
"content": "Describe this image in detail please."
}
]
)
可以通过Llama
类的create_chat_completion
方法完成聊天。
对于OpenAI API v1兼容性,您可以使用create_chat_completion_openai_v1
方法,该方法将返回pydatic模型而不是dicts。
4、JSON和JSON模式
要将聊天响应限制为仅有效的JSON或特定的JSON架构,请使用create_chat_completion
中的response_format
参数。
JSON模式
以下示例将仅将响应限制为有效的JSON字符串。
from llama_cpp import Llama
llm = Llama(model_path="path/to/model.gguf", chat_format="chatml")
llm.create_chat_completion(
messages=[
{
"role": "system",
"content": "You are a helpful assistant that outputs in JSON.",
},
{"role": "user", "content": "Who won the world series in 2020"},
],
response_format={
"type": "json_object",
},
temperature=0.7,
)
JSON Schema 模式
要将响应进一步限制为特定的JSON Schema,请将模式添加到response_format
参数的schema
属性中。
from llama_cpp import Llama
llm = Llama(model_path="path/to/model.gguf", chat_format="chatml")
llm.create_chat_completion(
messages=[
{
"role": "system",
"content": "You are a helpful assistant that outputs in JSON.",
},
{"role": "user", "content": "Who won the world series in 2020"},
],
response_format={
"type": "json_object",
"schema": {
"type": "object",
"properties": {"team_name": {"type": "string"}},
"required": ["team_name"],
},
},
temperature=0.7,
)
5、函数调用
高级API支持OpenAI兼容的函数和工具调用。
这可以通过functionary
预训练模型聊天格式或通用chatml-function-calling
聊天格式实现。
from llama_cpp import Llama
llm = Llama(model_path="path/to/chatml/llama-model.gguf", chat_format="chatml-function-calling")
llm.create_chat_completion(
messages = [
{
"role": "system",
"content": "A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions. The assistant calls functions with appropriate input when necessary"
},
{
"role": "user",
"content": "Extract Jason is 25 years old"
}
],
tools=[{
"type": "function",
"function": {
"name": "UserDetail",
"parameters": {
"type": "object",
"title": "UserDetail",
"properties": {
"name": {
"title": "Name",
"type": "string"
},
"age": {
"title": "Age",
"type": "integer"
}
},
"required": [ "name", "age" ]
}
}
}],
tool_choice={
"type": "function",
"function": {
"name": "UserDetail"
}
}
)
6、多模态模型
llama-cpp-python
支持诸如llava1.5之类的功能,它允许语言模型从文本和图像中读取信息。
以下是支持的多模式模型及其各自的聊天处理程序(Python API)和聊天格式(Server API)。
Model | LlamaChatHandler | chat_format |
---|---|---|
llava-v1.5-7b | Llava15ChatHandler | llava-1-5 |
llava-v1.5-13b | Llava15ChatHandler | llava-1-5 |
llava-v1.6-34b | Llava16ChatHandler | llava-1-6 |
moondream2 | MoondreamChatHandler | moondream2 |
nanollava | NanollavaChatHandler | nanollava |
llama-3-vision-alpha | Llama3VisionAlphaChatHandler | llama-3-vision-alpha |
然后,您需要使用自定义聊天处理程序来加载剪辑模型并处理聊天消息和图像。
from llama_cpp import Llama
from llama_cpp.llama_chat_format import Llava15ChatHandler
chat_handler = Llava15ChatHandler(clip_model_path="path/to/llava/mmproj.bin")
llm = Llama(
model_path="./path/to/llava/llama-model.gguf",
chat_handler=chat_handler,
n_ctx=2048, # n_ctx should be increased to accommodate the image embedding
)
llm.create_chat_completion(
messages = [
{"role": "system", "content": "You are an assistant who perfectly describes images."},
{
"role": "user",
"content": [
{"type" : "text", "text": "What's in this image?"},
{"type": "image_url", "image_url": {"url": "https://upload.wikimedia.org/wikipedia/commons/thumb/d/dd/Gfp-wisconsin-madison-the-nature-boardwalk.jpg/2560px-Gfp-wisconsin-madison-the-nature-boardwalk.jpg" } }
]
}
]
)
还可以使用from_pretrained
方法从HugingFace Hub中提取模型。
from llama_cpp import Llama
from llama_cpp.llama_chat_format import MoondreamChatHandler
chat_handler = MoondreamChatHandler.from_pretrained(
repo_id="vikhyatk/moondream2",
filename="*mmproj*",
)
llm = Llama.from_pretrained(
repo_id="vikhyatk/moondream2",
filename="*text-model*",
chat_handler=chat_handler,
n_ctx=2048, # n_ctx should be increased to accommodate the image embedding
)
response = llm.create_chat_completion(
messages = [
{
"role": "user",
"content": [
{"type" : "text", "text": "What's in this image?"},
{"type": "image_url", "image_url": {"url": "https://upload.wikimedia.org/wikipedia/commons/thumb/d/dd/Gfp-wisconsin-madison-the-nature-boardwalk.jpg/2560px-Gfp-wisconsin-madison-the-nature-boardwalk.jpg" } }
]
}
]
)
print(response["choices"][0]["text"])
注意:多模态模型还支持工具调用和JSON模式。
def image_to_base64_data_uri(file_path):
with open(file_path, "rb") as img_file:
base64_data = base64.b64encode(img_file.read()).decode('utf-8')
return f"data:image/png;base64,{base64_data}"
# Replace 'file_path.png' with the actual path to your PNG file
file_path = 'file_path.png'
data_uri = image_to_base64_data_uri(file_path)
messages = [
{"role": "system", "content": "You are an assistant who perfectly describes images."},
{
"role": "user",
"content": [
{"type": "image_url", "image_url": {"url": data_uri }},
{"type" : "text", "text": "Describe this image in detail please."}
]
}
]
7、Speculative Decoding
llama-cpp-python
支持推测解码,允许模型基于草稿模型生成完成。
使用推测解码的最快方法是通过LlamaPromptLookupDecoding
类。
只需要在初始化的时候,传递这个 draft 模型到 Llama
类
from llama_cpp import Llama
from llama_cpp.llama_speculative import LlamaPromptLookupDecoding
llama = Llama(
model_path="path/to/model.gguf",
draft_model=LlamaPromptLookupDecoding(num_pred_tokens=10) # num_pred_tokens is the number of tokens to predict 10 is the default and generally good for gpu, 2 performs better for cpu-only machines.
)
8、Embeddings
生成文本嵌入,使用 create_embedding
或 embed
。
注意,你需要传递 embedding=True
给构造器,在模型创建后,这些功能才能正常工作。
import llama_cpp
llm = llama_cpp.Llama(model_path="path/to/model.gguf", embedding=True)
embeddings = llm.create_embedding("Hello, world!")
# or create multiple embeddings at once
embeddings = llm.create_embedding(["Hello, world!", "Goodbye, world!"])
Transformer-style模型中的嵌入有两个主要概念:令牌级和序列级。序列级嵌入是通过将令牌级嵌入“池化”在一起产生的,通常是通过平均它们或使用第一个令牌。
默认情况下,明确面向嵌入的模型通常会返回序列级嵌入,每个输入字符串一个。非嵌入模型(例如为文本生成设计的模型)通常只返回令牌级嵌入,每个序列中的每个令牌一个。因此,对于令牌级嵌入,返回类型的维度将更高。
在某些情况下,可以使用模型创建时的pooling_type
标志来控制池化行为。您可以使用LLAMA_POOLING_TYPE_NONE
确保来自任何模型的令牌级嵌入。相反,获得面向生成的模型来产生序列级嵌入目前是不可能的,但您始终可以手动进行池化。
9、调整上下文窗口
Llama模型的上下文窗口决定了一次可以处理的最大令牌数量。默认情况下,这设置为512个令牌,但可以根据您的要求进行调整。
例如,如果您想使用更大的上下文,您可以在初始化Llama对象时通过设置n_ctx参数来展开上下文窗口:
llm = Llama(model_path="./models/7B/llama-model.gguf", n_ctx=2048)
四、OpenAI兼容Web服务器
llama-cpp-python
提供了一个Web服务器,旨在作为OpenAI API的直接替代品。 这允许您将llama. cpp兼容模型与任何OpenAI兼容客户端(语言库、服务等)一起使用。
要安装服务器包并开始使用:
pip install 'llama-cpp-python[server]'
python3 -m llama_cpp.server --model models/7B/llama-model.gguf
与上面的硬件加速部分类似,您还可以安装支持GPU(cuBLAS)的产品,如下所示:
CMAKE_ARGS="-DGGML_CUDA=on" FORCE_CMAKE=1 pip install 'llama-cpp-python[server]'
python3 -m llama_cpp.server --model models/7B/llama-model.gguf --n_gpu_layers 35
导航到http://localhost:8000/docs以查看OpenAPI留档。
要绑定到0.0.0.0
以启用远程连接,请使用python3 -m llama_cpp.server --host 0.0.0.0
。 同样,要更改端口(默认为8000),请使用--port
。
您可能还想设置提示格式。对于chat ml,使用
python3 -m llama_cpp.server --model models/7B/llama-model.gguf --chat_format chatml
这将根据模型期望的方式格式化提示。您可以在模型卡中找到提示格式。 有关可能的选项,请参阅llama_cpp/llama_chat_format.py并查找以“@register_chat_format”开头的行。
如果安装了huggingface-hub
,还可以使用--hf_model_repo_id
标志从HuggingFace Hub加载模型。
python3 -m llama_cpp.server --hf_model_repo_id Qwen/Qwen2-0.5B-Instruct-GGUF --model '*q8_0.gguf'
Web服务器功能
五、Docker镜像
Docker映像可在GHRC上获得。要运行服务器:
docker run --rm -it -p 8000:8000 -v /path/to/models:/models -e MODEL=/models/llama-model.gguf ghcr.io/abetlen/llama-cpp-python:latest
termux上的Docker(需要root)是目前唯一已知的在手机上运行它的方法,请参阅termux支持问题
六、低级API
低级API是直接绑定到llama.cpp
提供的C API的ctypes
。 整个低级API可以在llama_cpp/llama_cpp.py中找到,并直接反映llama. h中的C API。
下面是一个简短的示例,演示了如何使用低级API对提示进行标记:
import llama_cpp
import ctypes
llama_cpp.llama_backend_init(False) # Must be called once at the start of each program
params = llama_cpp.llama_context_default_params()
# use bytes for char * params
model = llama_cpp.llama_load_model_from_file(b"./models/7b/llama-model.gguf", params)
ctx = llama_cpp.llama_new_context_with_model(model, params)
max_tokens = params.n_ctx
# use ctypes arrays for array params
tokens = (llama_cpp.llama_token * int(max_tokens))()
n_tokens = llama_cpp.llama_tokenize(ctx, b"Q: Name the planets in the solar system? A: ", tokens, max_tokens, llama_cpp.c_bool(True))
llama_cpp.llama_free(ctx)
查看示例文件夹以获取更多使用低级API的示例。
七、发展
该一揽子计划正在积极开发中,我欢迎任何贡献。
要开始使用,请克隆存储库并以可编辑/开发模式安装包:
git clone --recurse-submodules https://github.com/abetlen/llama-cpp-python.git
cd llama-cpp-python
# Upgrade pip (required for editable mode)
pip install --upgrade pip
# Install with pip
pip install -e .
# if you want to use the fastapi / openapi server
pip install -e .[server]
# to install all optional dependencies
pip install -e .[all]
# to clear the local build cache
make clean
您还可以测试lama.cpp
的特定提交,方法是在vendor/llama.cpp
子模块中签出所需的提交,然后再次运行make clean
和pip install -e .
。llama.h
API中的任何更改都需要 更改llama_cpp/llama_cpp.py
文件以匹配新API(其他地方可能需要其他更改)。
八、常见问题解答
是否有预构建的二进制/二进制轮子可用?
推荐的安装方法是从源代码安装,如上所述。 这样做的原因是llama.cpp
是使用特定于您的系统的编译器优化构建的。 使用预构建的二进制文件需要禁用这些优化或为每个平台支持大量预构建的二进制文件。
话虽如此,有一些预构建的二进制文件可通过版本以及一些社区提供的轮子获得。
在未来,我愿意为通用平台提供预构建的二进制文件和轮子,我很乐意接受在这一领域的任何有用的贡献。 这目前正在跟踪#741
这与llama. cppllama.cpp
相比如何?
我最初编写这个包是为了自己使用,有两个目标:
- 提供一个简单的过程来安装
llama.cpp
并从Python访问llama.h
中的完整C API - 提供高级Python API,可用作OpenAI API的直接替代品,以便可以轻松移植现有应用程序以使用
llama.cpp
对该一揽子计划的任何贡献和更改都将牢记这些目标。
许可证
该项目根据MIT许可条款获得许可。
2024-07-16(二)
标签:
相关文章
最新发布
- 【Python】selenium安装+Microsoft Edge驱动器下载配置流程
- Python 中自动打开网页并点击[自动化脚本],Selenium
- Anaconda基础使用
- 【Python】成功解决 TypeError: ‘<‘ not supported between instances of ‘str’ and ‘int’
- manim边学边做--三维的点和线
- CPython是最常用的Python解释器之一,也是Python官方实现。它是用C语言编写的,旨在提供一个高效且易于使用的Python解释器。
- Anaconda安装配置Jupyter(2024最新版)
- Python中读取Excel最快的几种方法!
- Python某城市美食商家爬虫数据可视化分析和推荐查询系统毕业设计论文开题报告
- 如何使用 Python 批量检测和转换 JSONL 文件编码为 UTF-8
点击排行
- 版本匹配指南:Numpy版本和Python版本的对应关系
- 版本匹配指南:PyTorch版本、torchvision 版本和Python版本的对应关系
- Python 可视化 web 神器:streamlit、Gradio、dash、nicegui;低代码 Python Web 框架:PyWebIO
- 相关性分析——Pearson相关系数+热力图(附data和Python完整代码)
- Python与PyTorch的版本对应
- Anaconda版本和Python版本对应关系(持续更新...)
- Python pyinstaller打包exe最完整教程
- Could not build wheels for llama-cpp-python, which is required to install pyproject.toml-based proj