Skip to content

Commit

Permalink
Fix C1-C6 format
Browse files Browse the repository at this point in the history
  • Loading branch information
AXYZdong committed Aug 15, 2024
1 parent a6baeef commit f8d5153
Show file tree
Hide file tree
Showing 14 changed files with 208 additions and 202 deletions.
8 changes: 4 additions & 4 deletions docs/C1/1. Ollama介绍.md → docs/C1/1. Ollama 介绍.md
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
# Ollama介绍
# Ollama 介绍

## 一、Ollama简介
## 一、Ollama 简介

>"Get up and running with large language models locally."
Expand All @@ -12,7 +12,7 @@ Ollama 是一个开源的大型语言模型服务工具,旨在帮助用户快

Ollama 极大地简化了在 Docker 容器中部署和管理大型语言模型的过程,使用户能够迅速在本地启动和运行这些模型。它提供了一个简洁易用的命令行界面和服务器,专为构建大型语言模型应用而设计。用户可以轻松下载、运行和管理各种开源LLM。与传统LLM需要复杂配置和强大硬件不同,Ollama 能够让用户在消费级的PC上体验LLM的强大功能。

## 二、Ollama特点
## 二、Ollama 特点

- **开源免费**:Ollama 及其支持的模型完全开源且免费,用户可以随时访问和使用这些资源,而无需支付任何费用。
- **简单易用**:Ollama 无需复杂的配置和安装过程,只需几条简单的命令即可启动和运行,为用户节省了大量时间和精力。
Expand Down Expand Up @@ -238,7 +238,7 @@ Ollama 支持的模型库列表 [https://ollama.com/library](https://ollama.com/

> 注意:运行 7B 模型至少需要 8GB 内存,运行 13B 模型至少需要 16GB 内存,运行 33B 模型至少需要 32GB 内存。
## 四、Ollama常用命令
## 四、Ollama 常用命令

终端输入 `Ollama`,输出如下:

Expand Down
53 changes: 53 additions & 0 deletions docs/C2/1. Ollama 在 macOS 下的安装与配置.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,53 @@
# Ollama 安装与配置 - macOS 系统篇

## 简介

本节学习如何在 macOS 系统中完成 Ollama 的安装与配置,主要分为以下三部分:

* 访问官网直接完成下载
* 运行 Ollama
* 安装 Enchanted

## 一、访问官网直接完成下载

1. 访问官网主页

> [**Ollama**](https://ollama.com/download) 官方主页:https://ollama.com/library
> **Ollama**官方GitHub源代码仓库:[https://github.com/ollama/ollama/](https://github.com/ollama/ollama)
>
![](../images/C2-1-1.png)

2. 等待浏览器下载文件 Ollama-darwin.zip,完成后双击该文件解压,双击解压后文件并将出现如下弹窗。

![](../images/C2-1-2.png)

点击`打开`后会出现如下弹窗,我们点击`Move to Applications`即可。

![](../images/C2-1-3.png)
3. 安装完成后,可以右上角状态栏看到 Ollama 图标,点击 `Quit Ollama` 可以退出 Ollama 。

![](../images/C2-1-4.jpg)

## 二、运行 Ollama

- 终端命令启动

```bash
ollama run qwen2:0.5b
```
> 第一次启动需要下载对应模型文件,因此我们选择下载千问2的0.5b版本节省时间。可以点击官网右上角的 [Models](https://ollama.com/library) 获取Ollama支持的模型。
> 加载完成后可以在终端与模型进行对话,`/bye`结束对话。
![](../images/C2-1-5.png)

## 三、安装 Enchanted
Enchanted 是一款开源、兼容 Ollama 的优雅 macOS/iOS/visionOS 应用程序,是一款可以连接私人模型的 ChatGPT 应用程序 UI。可以在 [Enchanted](https://github.com/AugustDev/enchanted) 点击 App Store 进行下载。

![](../images/C2-1-6.png)

我们在运行 Ollama 之后,直接打开 Enchanted 就可以连接到 Ollama。

![](../images/C2-1-7.png)
52 changes: 0 additions & 52 deletions docs/C2/1. Ollama在macOS下的安装与配置.md

This file was deleted.

Original file line number Diff line number Diff line change
@@ -1,27 +1,27 @@
# Ollama安装与配置-Windows系统篇
# Ollama 安装与配置 - Windows 系统篇

## 简介

本节学习如何在Windows系统中完成Ollama的安装与配置,主要分为以下几个部分:
本节学习如何在 Windows 系统中完成 Ollama 的安装与配置,主要分为以下几个部分:

* 访问官网直接完成下载
* 环境变量配置
* 运行Ollama
* 运行 Ollama
* 验证安装成功🎉

## 一、访问官网直接完成下载

1. 访问官网主页

> [**Ollama**](https://ollama.com/download)官方主页:https://ollama.com/library
> [**Ollama**](https://ollama.com/download) 官方主页:https://ollama.com/library
> **Ollama**官方GitHub源代码仓库:[https://github.com/ollama/ollama/](https://github.com/ollama/ollama)
>
![1](../images/C2-2-1.png)
2. 等待浏览器下载文件OllamaSetup.exe,完成后双击该文件,出现如下弹窗,点击 `Install`等待下载完成即可。
2. 等待浏览器下载文件 OllamaSetup.exe,完成后双击该文件,出现如下弹窗,点击 `Install` 等待下载完成即可。

![img](../images/C2-2-2.png)
3. 安装完成后,可以看到Ollama已经默认运行了。可以通过底部的导航栏找到Ollama标志,并右键后点击 `Quit Ollama` 退出Ollama或者查看 `logs`
3. 安装完成后,可以看到 Ollama 已经默认运行了。可以通过底部的导航栏找到 Ollama 标志,并右键后点击 `Quit Ollama` 退出Ollama或者查看 `logs`

![](../images/C2-2-3.png)

Expand Down Expand Up @@ -54,21 +54,21 @@
ollama serve
```

> 启动ollama时会报错如下,因为Windows系统安装Ollama时会**默认开机启动,**Ollama**服务默认****http://127.0.0.1:11434**
> 启动 Ollama 时会报错如下,因为 Windows 系统安装 Ollama 时会**默认开机启动****Ollama** 服务默认是 http://127.0.0.1:11434
>
> `Error: listen tcp 127.0.0.1:11434: bind: Only one usage of each socket address (protocol/network address/port) is normally permitted.`
- 解决方法:

1. 快捷键 `Win+X`打开任务管理器,点击 `启动`禁用ollama,并在**进程**中结束ollama的任务
1. 快捷键 `Win+X` 打开任务管理器,点击 `启动`禁用 Ollama,并在**进程**中结束 Ollama 的任务

![](../images/C2-2-4.png)
2. 再次使用 `ollama serve`打开ollama
2. 再次使用 `ollama serve`打开 Ollama。

- 验证成功启动:

1. 快捷键 `Win+R`,输入 `cmd`,打开命令行终端。
2. 输入 `netstat -aon|findstr 11434`查看占用端口11434的进程。
2. 输入 `netstat -aon|findstr 11434` 查看占用端口11434的进程。

```bash
netstat -aon|findstr 11434
Expand All @@ -78,7 +78,7 @@ netstat -aon|findstr 11434
>
> 显示11434端口被17556进程占用
3. 查看该进程运行的情况,发现ollama已经启动
3. 查看该进程运行的情况,发现 Ollama 已经启动

```bash
tasklist|findstr "17556"
Expand Down Expand Up @@ -125,13 +125,13 @@ Flags:
- 终端使用Ollama :


> [library (ollama.com)](https://ollama.com/library)这里是ollama的模型库,搜索你想要的模型,然后直接启动!
> [library (ollama.com)](https://ollama.com/library) 这里是ollama的模型库,搜索你想要的模型,然后直接启动!
```bash
ollama run llama3
```

> 下载速度取决于你的带宽,下载完毕即可使用✌记得使用 `control + D`退出聊天
> 下载速度取决于你的带宽,下载完毕即可使用✌记得使用 `control + D` 退出聊天
![XIA](../images/C2-2-5.png)

Expand Down
Original file line number Diff line number Diff line change
@@ -1,15 +1,16 @@
# Ollama安装与配置-Linux系统篇
# Ollama 安装与配置 - Linux 系统篇

## 简介

本节学习如何在Linux系统中完成Ollama的安装与配置,以及对Ollama更新,特定版本的安装,查看日志和卸载。
本节学习如何在 Linux 系统中完成 Ollama 的安装与配置,以及对 Ollama 更新,特定版本的安装,查看日志和卸载。

## 一、快速安装

> [**Ollama**](https://ollama.com/download)官方主页:https://ollama.com/library
> [**Ollama**](https://ollama.com/download) 官方主页:https://ollama.com/library
>
> **Ollama**官方GitHub源代码仓库:[https://github.com/ollama/ollama/](https://github.com/ollama/ollama)
>
> 官网提供了一条命令行快速安装的方法
> 官网提供了一条命令行快速安装的方法
![](../images/C2-3-1.png)

Expand All @@ -19,7 +20,7 @@ curl -fsSL https://ollama.com/install.sh | sh

![](../images/C2-3-2.png)

此命令将自动下载最新版本的Ollama并完成安装,以下是ollama使用常见的指令
此命令将自动下载最新版本的 Ollama 并完成安装,以下是 Ollama 使用常见的指令

```bash

Expand All @@ -35,7 +36,7 @@ ollama rm #删除模型
ollama help #获取有关任何命令的帮助信息
```

- 验证安装完成,在 `Exec`处输入:
- 验证安装完成,在 `Exec` 处输入:

```bash
ollama -h
Expand All @@ -45,31 +46,31 @@ ollama -h

![](../images/C2-3-3.png)

- 开启并使用ollama
- 开启并使用 Ollama

首先,在终端中开启ollama,并在后台挂起
首先,在终端中开启 Ollama,并在后台挂起

```shell
ollama serve
```

![](../images/C2-3-4.png)

> [library (ollama.com)](https://ollama.com/library)这里是ollama的模型库,搜索你想要的模型,开启新的终端,启动!
> [library (ollama.com)](https://ollama.com/library)这里是 Ollama 的模型库,搜索你想要的模型,开启新的终端,启动!
```bash
ollama run llama3
```

> 下载速度取决于你的带宽,下载完毕即可使用✌记得使用 `control + D`退出聊天
> 下载速度取决于你的带宽,下载完毕即可使用✌记得使用 `control + D` 退出聊天
![](../images/C2-3-5.png)

## 二、手动安装

### 2.1 下载二进制文件 `ollama`

将ollama的二进制文件下载到 PATH 中的目录:
将 Ollama 的二进制文件下载到 PATH 中的目录:

```shell
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama
Expand Down Expand Up @@ -125,7 +126,7 @@ sudo systemctl start ollama
curl -fsSL https://ollama.com/install.sh | sh
```

或者下载 ollama 二进制文件:
或者下载 Ollama 二进制文件:

```shell
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama
Expand Down
Original file line number Diff line number Diff line change
@@ -1,27 +1,28 @@
# Ollama安装与配置-docker篇
# Ollama 安装与配置 - docker 篇

## 简介

本节学习如何在Docker中完成Ollama的安装与配置
本节学习如何在 Docker 中完成 Ollama 的安装与配置

> Docker是一种虚拟化的容器技术,其基于镜像,可以秒级启动各种容器。其中的每一种容器都是一个完整的运行环境,可以实现容器之间的隔离。
>
> [**Ollama**](https://ollama.com/download)官方主页:https://ollama.com/library
>
> **Ollama**官方GitHub源代码仓库:[https://github.com/ollama/ollama/](https://github.com/ollama/ollama)
>
> docker安装官方教程:https://hub.docker.com/r/ollama/ollama
![](../images/C2-4-1.png)

## 一、拉取ollama镜像
## 一、拉取 Ollama 镜像

> 笔者事先在Windows系统下载了docker👉[docker安装下载官方网站](https://docs.docker.com/desktop/install/windows-install/)
**方式一:Docker软件在可视化界面中搜索并下载**
**方式一:Docker 软件在可视化界面中搜索并下载**

![](../images/C2-4-2.png)

**方式二:官网推荐直接使用下面的指令拉取下载镜像,本项目只需在CPU上即可运行**
**方式二:官网推荐直接使用下面的指令拉取下载镜像,本项目只需在CPU上即可运行**

```bash
# CPU 或者 Nvidia GPU
Expand All @@ -44,15 +45,15 @@ docker pull ollama/ollama:0.3.0-rocm

**方式一:Docker在可视化界面中运行镜像**

- 下载完成后,可以在 `Images`中找到 `ollama`镜像,点击 `run`标识即可运行,注意运行前在弹出的可选设置里面,选定一个端口号(如8089)
- 下载完成后,可以在 `Images`中找到 `Ollama` 镜像,点击 `run` 标识即可运行,注意运行前在弹出的可选设置里面,选定一个端口号(如8089)

![](../images/C2-4-3.png)

-`Containers`中找到该镜像,点击 `OLLM`即可进入ollama界面
-`Containers` 中找到该镜像,点击 `OLLM` 即可进入 Ollama 界面

![img](../images/C2-4-4.png)

- 验证安装完成,在 `Exec`处输入:
- 验证安装完成,在 `Exec` 处输入:

```bash
ollama -h
Expand Down Expand Up @@ -88,9 +89,9 @@ Flags:

![img](../images/C2-4-5.png)

- 终端使用Ollama :
- 终端使用 Ollama :

以下是ollama使用常见的指令
以下是 Ollama 使用常见的指令

```bash

Expand All @@ -106,17 +107,17 @@ ollama rm #删除模型
ollama help #获取有关任何命令的帮助信息
```

> [library (ollama.com)](https://ollama.com/library)这里是ollama的模型库,搜索你想要的模型,然后直接启动!
> [library (ollama.com)](https://ollama.com/library)这里是 Ollama 的模型库,搜索你想要的模型,然后直接启动!
```bash
ollama run llama3
```

> 下载速度取决于你的带宽,下载完毕即可使用✌记得使用 `control + D`退出聊天
> 下载速度取决于你的带宽,下载完毕即可使用✌记得使用 `control + D` 退出聊天
**方式二:命令行启动**

- CPU版本
- CPU 版本

```shell
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
Expand Down
Loading

0 comments on commit f8d5153

Please sign in to comment.