Skip to content

OllamaAI翻译(离线)

Ollama官网地址

https://ollama.com/

前言:本翻译源为离线AI翻译,需要下载Ollama软件和AI离线大模型

由于 Ollama 暂未提供界面,故而目前只能通过 控制台 / 终端 进行操作

如果对于需要页面操作的需求用户较多,我们会考虑开发界面端,欢迎反馈 ~

AI模型信息 随时间推移,官网可能会有变动,此处仅供参考,具体以官方文档为准

AI模型 - 官方介绍文档

模型名称模型型号模型大小命令执行
Llama 38B4.7GBollama run llama3
Llama 370B40GBollama run llama3:70b
Phi-33,8B2.3GBollama run phi3
Mistral7B4.1GBollama run mistral
Neural Chat7B4.1GBollama run neural-chat
Starling7B4.1GBollama run starling-lm
Code Llama7B3.8GBollama run codellama
Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
LLaVA7B4.5GBollama run llava
Gemma2B1.4GBollama run gemma:2b
Gemma7B4.8GBollama run gemma:7b
Solar10.7B6.1GBollama run solar

使用前提

名词介绍: RAM(Random Access Memory)通常指的是电脑中的内存条

按照官网说明,AI模型对电脑要求

7B 模型型号至少需要 8 GB 可用 RAM 来运行

13B 模型型号至少需要 16 GB 可用 RAM 来运行

33B 模型型号至少需要 32 GB 可用 RAM 来运行

我们测试,电脑内存 24G 情况下,这三个模型:Gemma 2B、Llama 3 8B、llama 2 Uncensored 7B

其中 Gemma 2B 翻译速度是最快,并且大部分情况下翻译效果还不错,如果对于翻译结果精准度没那么高的情况下这个还不错 其他模型,翻译质量会高一些,但是速度也会对应降低,大家可以根据自己实际测试情况进行选择

1.下载安装 Ollama

Ollama官网:https://ollama.com/

安装完毕后,打开电脑控制台 / 终端,输入:ollama

出现如下界面则表示安装成功

2.通过 Ollama 下载AI大模型

打开电脑控制台 / 终端,复制上面模型列表中的对应模型命令执行

Ollama 其他命令

查看当前下载的模型列表

ollama list

下载模型 (此命令还可用于更新本地模型。只有差异才会被拉出。)

ollama pull xxx

删除模型

ollama rm xxx

Copyright © 2023-2024