如何从 HuggingFace 为 Ollama 导入新模型:Octopus-v2为例

1、关于GGUF格式介绍

是由Georgi Gerganov提出的一种通用的大语言模型存储格式,它支持多种量化级别,它为量化后的模型提供了一个标准化和高效的存储解决方案,使得这些模型可以更容易地集成到各种应用中,尤其是在资源受限的环境中。

2、下载GGUF文件

这里以Octopus-v2为例,

如何下载网上的某个模型

可以从hugggingface.co 或者镜像网站hr-mirror.com 下载所需gguf格式的大模型(不然得自己转) 假设我们要下载的是这两天大火的斯坦福的模型Octopus-v2, 搜Octopus-v2,找有GGUF标识的,


手动下载模型

比如我们选择个链接 https://hf-mirror.com/brittlewis12/Octopus-v2-GGUF/tree/main 下载octopus-v2.Q8_0.gguf

$ wget https://hf-mirror.com/NexaAIDev/Octopus-v2-gguf-awq/blob/main/octopus-v2-Q4_K_S.gguf


导入自己下载的模型

echo From Octopus-v2-Q4_K_S.gguf >ModleFile

ollama create octopus:v2 -f ModleFile

ollama run octopus:v2



分享一个国内免费使用GPT4.0的AI智能问答工具:智答专家。支持AI文本、作图、语音、Sora视频。无需魔法,亲测有效,点击访问

标签:HuggingFace,Ollama,Octopus-v2
来源:智答专家
发布时间:2024-05-13 18:50