Skip to content

Latest commit

 

History

History
34 lines (25 loc) · 1.52 KB

LiteLLM_QuickStart.md

File metadata and controls

34 lines (25 loc) · 1.52 KB

使用 LiteLLM 集成 Phi-3 模型是一个很好的选择,特别是如果你希望将其集成到各种应用程序中。LiteLLM 作为中间件,将 API 调用转换为兼容不同模型的请求,包括 Phi-3。

Phi-3 是由微软开发的小型语言模型(SLM),设计上既高效又能在资源受限的机器上运行。它可以在支持 AVX 的 CPU 和仅有 4 GB 内存的情况下运行,非常适合在无需 GPU 的情况下进行本地推理。

以下是使用 LiteLLM 和 Phi-3 的一些步骤:

  1. 安装 LiteLLM:你可以使用 pip 安装 LiteLLM:

    pip install litellm
  2. 设置环境变量:配置你的 API 密钥和其他必要的环境变量。

    import os
    os.environ["OPENAI_API_KEY"] = "your-api-key"
  3. 进行 API 调用:使用 LiteLLM 对 Phi-3 模型进行 API 调用。

    from litellm import completion
    
    response = completion(
        model="phi-3",
        messages=[{"role": "user", "content": "Hello, how are you?"}]
    )
    print(response)
  4. 集成:你可以将 LiteLLM 集成到各种平台,如 Nextcloud Assistant,这样你就可以使用 Phi-3 进行文本生成和其他任务。

LLMLite 的完整代码示例 LLMLite 示例代码笔记本

免责声明:本翻译由AI模型从原文翻译而来,可能并不完美。请审阅输出并进行任何必要的修改。