Skip to content

Commit 3d9b004

Browse files
committed
Japanese readme is removed due to lack of expertise.
1 parent 1ea378d commit 3d9b004

File tree

3 files changed

+9
-148
lines changed

3 files changed

+9
-148
lines changed

README.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -1,6 +1,6 @@
11
# ChatLLM.cpp
22

3-
[中文版](README_zh.md) | [日本語](README_ja.md)
3+
[中文版](README_zh.md)
44

55
[![License: MIT](https://img.shields.io/badge/license-MIT-blue)](LICENSE) [![CI](https://github.com/foldl/chatllm.cpp/actions/workflows/build.yml/badge.svg)](https://github.com/foldl/chatllm.cpp/actions/workflows/build.yml)
66

@@ -91,7 +91,7 @@ pip install -r requirements.txt
9191
Use `convert.py` to transform models into quantized GGML format. For example, to convert the _fp16_ base model to q8_0 (quantized int8) GGML model, run:
9292

9393
```sh
94-
# For models such as ChatLLM-6B, ChatLLM2-6B, InternLM, LlaMA, LlaMA-2, Baichuan-2, etc
94+
# For models such as ChatLLM2-6B, InternLM, LlaMA, LlaMA-2, Baichuan-2, etc
9595
python convert.py -i path/to/model -t q8_0 -o quantized.bin --name ModelName
9696

9797
# For some models such as CodeLlaMA, model type should be provided by `-a`

README_ja.md

Lines changed: 0 additions & 139 deletions
This file was deleted.

README_zh.md

Lines changed: 7 additions & 7 deletions
Original file line numberDiff line numberDiff line change
@@ -1,12 +1,12 @@
11
# ChatLLM.cpp
22

3-
[English](README.md) | [日本語](README_ja.md)
3+
[English](README.md)
44

55
[![License: MIT](https://img.shields.io/badge/license-MIT-blue)](LICENSE)
66

77
![](./docs/demo.gif)
88

9-
在计算机(CPU)上实时聊天,可 [检索增强生成](./docs/rag.md) 。支持从不到 1B 到超过 300B 的一系列模型的推理。基于 [@ggerganov](https://github.com/ggerganov)[ggml](https://github.com/ggerganov/ggml),纯 C++ 实现。
9+
在计算机(CPU)上实时[多模态](./docs/multimodal.md)聊天,可 [检索增强生成](./docs/rag.md) 。支持从不到 1B 到超过 300B 的一系列模型的推理。基于 [@ggerganov](https://github.com/ggerganov)[ggml](https://github.com/ggerganov/ggml),纯 C++ 实现。
1010

1111
| [支持的模型](./docs/models.md) | [下载量化模型](./docs/quick_start.md#download-quantized-models) |
1212

@@ -57,12 +57,12 @@ pip install -r requirements.txt
5757
使用 `convert.py` 将模型转换为量化的 GGML 格式。例如,要将某个模型转换为 q8_0(int8 量化)GGML 模型,请运行以下命令:
5858

5959
```sh
60-
# 对于 ChatLLM-6B, ChatLLM2-6B, InternLM, LlaMA, LlaMA-2, Baichuan-2 等模型,使用以下命令转换
61-
python3 convert.py -i path/to/model -t q8_0 -o quantized.bin
60+
# 对于 ChatLLM2-6B, InternLM, LlaMA, LlaMA-2, Baichuan-2 等模型,使用以下命令转换
61+
python3 convert.py -i path/to/model -t q8_0 -o quantized.bin --name ModelName
6262

6363
# 对于像 CodeLlaMA 等模型,模型的类型需要通过 `-a` 参数指定。
6464
# `docs/models.md` 说明了这些模型需要的 `-a` 参数。
65-
python3 convert.py -i path/to/model -t q8_0 -o quantized.bin -a CodeLlaMA
65+
python3 convert.py -i path/to/model -t q8_0 -o quantized.bin -a CodeLlaMA --name ModelName
6666
```
6767

6868
使用 `-l` 参数指定要合并的 LoRA 模型所在目录。例如:
@@ -108,8 +108,6 @@ python3 convert.py -i path/to/model -l path/to/lora/model -o quantized.bin
108108
现在,您可以通过以下方式与量化模型进行对话:
109109

110110
```sh
111-
./build/bin/main -m chatglm-ggml.bin # ChatGLM-6B
112-
# 你好👋!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。
113111
./build/bin/main -m llama2.bin --seed 100 # Llama-2-Chat-7B
114112
# Hello! I'm here to help you with any questions or concerns ....
115113
```
@@ -134,6 +132,8 @@ rlwrap ./build/bin/main -m model.bin -i
134132

135133
* 感谢那些发布了模型源代码和检查点的人。
136134

135+
* `chat_ui.html` 改写自 [Ollama-Chat](https://github.com/Oft3r/Ollama-Chat)
136+
137137
## 注意
138138

139139
这个项目是我用来学习深度学习和 GGML 的业余项目,目前正在积极开发中。欢迎修复 bug 的 PR,但不接受功能性的 PR。

0 commit comments

Comments
 (0)