本地部署AI大模型,既省钱又安全,1000元的旧电脑也能成为AI PC

本地部署AI大模型的好处

    1. 数据隐私和安全:确保敏感数据不离开本地环境,降低数据泄露风险,满足严格的数据合规要求。

    2. 定制化和灵活性:可以根据自身业务需求和特点,对模型进行更深入的定制和优化,更好地适应特定场景。

    3. 低延迟响应:避免网络延迟对实时性要求高的应用产生影响,提供更快速的交互体验。

    4. 自主掌控:拥有对模型的完全掌控权,包括升级、维护和调整的决策。


  1. 使用方案(目前最容易上手的方案):

ollama

  1. ollama部署耗时

  2. 约30分钟

  3. 部署步骤

目录

  1. 下载ollama

  2. 下载模型

  3. 下载webUI

  4. 完成

详细操作

下载ollama

下载地址:https://ollama.com/


  1. 下载模型



我们找到阿里的通义千文大模型,选择0.5b的



复制上面这段代码

ollama run qwen:0.5b

在电脑上,按:窗口键+R,打开运行窗口,如下图:


输入:cmd后按回车键,打开命令提示符窗口,如下图所示:


将下面的代码块,复制粘贴到,命令提示符窗口中,按回车

ollama run qwen:0.5b

等待几秒钟后,显示如下内容,即安装成功了。


输入一个问候,很快就显示出了AI的回复,如下图:


如果只是简单使用,这一步就可以了。但是如果要有更好的用户体验,则可以安装一个好用的客户端。

客户端安装

以下是官方推荐的一些web和桌面客户端

Web & Desktop

  • Open WebUI

  • Enchanted (macOS native)

  • Hollama

  • Lollms-Webui

  • LibreChat

  • Bionic GPT

  • HTML UI

  • Saddle

  • Chatbot UI

  • Chatbot UI v2

  • Typescript UI

  • Minimalistic React UI for Ollama Models

  • Ollamac

  • big-AGI

  • Cheshire Cat assistant framework

  • Amica

  • chatd

  • Ollama-SwiftUI

  • Dify.AI

  • MindMac

  • NextJS Web Interface for Ollama

  • Msty

  • Chatbox

  • WinForm Ollama Copilot

  • NextChat with Get Started Doc

  • Alpaca WebUI

  • OllamaGUI

  • OpenAOE

  • Odin Runes

  • LLM-X (Progressive Web App)

  • AnythingLLM (Docker + MacOs/Windows/Linux native app)

  • Ollama Basic Chat: Uses HyperDiv Reactive UI

  • Ollama-chats RPG

  • QA-Pilot (Chat with Code Repository)

  • ChatOllama (Open Source Chatbot based on Ollama with Knowledge Bases)

  • CRAG Ollama Chat (Simple Web Search with Corrective RAG)

  • RAGFlow (Open-source Retrieval-Augmented Generation engine based on deep document understanding)

  • StreamDeploy (LLM Application Scaffold)

  • chat (chat web app for teams)

  • Lobe Chat with Integrating Doc

  • Ollama RAG Chatbot (Local Chat with multiple PDFs using Ollama and RAG)

  • BrainSoup (Flexible native client with RAG & multi-agent automation)

  • macai (macOS client for Ollama, ChatGPT, and other compatible API back-ends)

本地安装Open WebUI

安装dockers

下载docker desktop ,下载地址如下:

https://www.docker.com/products/docker-desktop/

安装成功后,运行dockers desktop


安装openwebui

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

在命令提示符窗口中,粘贴如上代码,如下图所示:


等待安装完成后,打开docker desktop,可以看到容器已经部署成功,如下图所示:


浏览器中输入:localhost:3000 即可打开聊天窗口了,如下图所示:





分享一个国内免费使用GPT4.0的AI智能问答工具:智答专家。支持AI文本、作图、语音、Sora视频。无需魔法,亲测有效,点击访问

标签:ollama,open-webUI,本地部署AI
来源:智答专家
发布时间:2024-06-11 09:27