diff --git a/docs/apps.md b/docs/apps.md
index 14e8e396ee3ad635c60ada2998e2cbf08dc2b060..9e5f45534bf7e1b2d7ddba6deda50bdf9648c119 100644
--- a/docs/apps.md
+++ b/docs/apps.md
@@ -1,11 +1,9 @@
# 应用
- 使用应用,借助 AI 模型能力,您可以构建一个创意十足、功能强大的 Web 程序。
-- Gitee Ai 的应用可以自由编写任何程序,您可以选择预设的 Streamlit 和 Gradio 常用的 SDK。您也可以使用 Dockerfile 来高度自定义运行环境
-- Python、JavaScript、HTML、Go、Java、Ruby、PHP、Rust、C++ 等任何编程语言 或者 Dockerfile 来构建您的应用。
-借助 AI 模型能力,您可以构建一个创意十足、功能强大的 Web 程序。您可以通过 transformers 、diffusers 库加载 Gitee AI 模型,也可以使用 HTML、JS 等任意编程语言构建界面、调用 Gitee AI 模型引擎 或其他渠道提供的 API 服务。
-
-- 在线部署后,可通过浏览器直接访问、分享您的应用,推广您自己的模型、创意,而无需考虑服务器、算力资源、域名、部署等复杂繁琐问题。
+- Gitee AI 的应用可以自由编写任何程序,您可以选择预设的 Streamlit 和 Gradio 常用的 SDK。您也可以使用 Dockerfile 来高度自定义运行环境。
+- 您可以通过 transformers 、diffusers 库加载 [Gitee AI 模型](https://ai.gitee.com/models),也可以使用 HTML、JS 等任意编程语言构建界面、调用 [Gitee AI 模型引擎](https://ai.gitee.com/endpoints) 或其他渠道提供的 API 服务。
+- 在线部署后,可通过浏览器直接访问、分享您的应用、推广您自己的模型、创意,而无需考虑服务器、算力资源、域名、部署等复杂繁琐问题。
想更好演示您的应用,您还可以将您的应用配置升级,使其在 GPU 或其他更好的加速硬件上运行。
@@ -13,7 +11,7 @@
- [应用概述](/apps/overview)
- [应用 GPU 升级](/apps/gpu-upgrades)
-- [应用持久存储](/apps/storage)
+- [应用存储空间](/apps/storage)
- [Gradio 应用](/apps/sdks-gradio)
- [Streamlit 应用](/apps/sdks-streamlit)
- [静态应用](/apps/sdks-static)
diff --git a/docs/apps/china-computing-power.md b/docs/apps/china-computing-power.md
new file mode 100644
index 0000000000000000000000000000000000000000..cfd650dcbd6d99971d0083e0969e08a1f791752b
--- /dev/null
+++ b/docs/apps/china-computing-power.md
@@ -0,0 +1,96 @@
+# 国产算力
+
+在应用中使用国产算力非常简单,只需要注意几点即可。
+
+## 天数智芯 天垓 100
+
+- 天垓 100 应用环境已内置适配好驱动、软件,您无需关心兼容和安装问题。
+
+ **下列软件版本不可更改**:
+ ```plaintext
+ torch==2.1.1+corex.20240627082324
+ torch_cluster==1.6.0+corex.3.2.0
+ torch_quiver==0.1.0+corex.3.2.0
+ torch_scatter==2.1.0+corex.3.2.0
+ torch_sparse==0.6.16+corex.3.2.0
+ torchaudio==2.1.0+corex.3.2.0
+ torchvision==0.16.0+corex.3.2.0
+ vllm==0.3.3+corex.20240702092246
+ tensorflow==2.12.0+corex.3.2.0
+ diffusers==0.29.0+corex.3.2.0
+ cupy==11.4.0+corex.3.2.0
+ dali==1.21.0+corex.3.2.0
+ dropout_layer_norm==0.1+corex.3.2.0
+ flash_attn==2.0.1+corex.3.2.0
+ fused_dense_lib==0.1+corex.3.2.0
+ fused_softmax_lib==0.1+corex.3.2.0
+ horovod==0.27.0+corex.3.2.0
+ igie==0.9.dev0+corex.3.2.0
+ ixformer==0.4.0+corex.3.2.0
+ megatron_deepspeed==0.2.1rc0+corex.3.2.0
+ mxnet==1.9.0+corex.3.2.0
+ onnxruntime-gpu==1.13.1+corex.3.2.0
+ paddlepaddle==2.4.1+corex.3.2.0
+ rotary_emb==0.1+corex.3.2.0
+ xentropy_cuda_lib==0.1+corex.3.2.0
+ ```
+ 上述软件由算力厂商持续更新中。
+
+ 在 requements.txt 文件中指定上述软件版本将是无效操作。
+
+- 应用中 天垓 100 使用 Docker
+
+如果应用使用 Dockerfile 自定义环境,在 `天垓 100` 需要使用基础镜像,方可正常使用算力:
+
+`FROM registry.gitee-ai.local/base/iluvatar-corex:3.2.0-bi100`
+
+一个国产算力使用 Dockerfile 执行 Python 代码完整示例:
+
+```Dockerfile
+FROM registry.gitee-ai.local/base/iluvatar-corex:3.2.0-bi100
+
+RUN useradd -m -u 1000 user
+
+WORKDIR /home/user/app
+
+RUN apt-get update && apt-get install -y git git-lfs && git lfs install
+
+COPY requirements.tx[t] /home/user/app
+
+RUN if [ -f ./requirements.txt ]; then \
+ pip install --no-cache-dir -r ./requirements.txt -i https://mirrors.cloud.tencent.com/pypi/simple; \
+else \
+ echo "requirements.txt not found!"; \
+fi
+
+
+COPY --chown=1000 . /home/user/app
+
+RUN chmod -R 777 /home/user/app
+
+ENV PYTHONUNBUFFERED=1
+
+EXPOSE 7860
+
+ENTRYPOINT ["python3", "app.py"]
+```
+
+除了上述通用基础镜像,还有其他特殊镜像可供使用:
+
+- 兼容 stable-diffusion-3-medium-diffusers 的基础镜像:
+
+ `registry.gitee-ai.local/base/iluvatar-corex:3.2.0-sd3-bi100`
+
+- 量化类模型专用镜像:
+
+ `registry.gitee-ai.local/base/iluvatar-corex:3.2.0-quant-bi100`
+
+### 天数显卡查看显存
+
+执行 `ixsmi` 命令可以查看显存使用情况,等同于 Nvidia `nvidia-smi`
+
+
+
+:::tip 对话模型加速
+对话模型建议使用 `vllm` 获得最佳性能
+:::
diff --git a/docs/apps/gpu-upgrades.md b/docs/apps/gpu-upgrades.md
index 1b94dd6343a4a5f61283423329edd8d478af31f8..bd81258a4a19cd0db35c221d8fdfdf365a7ebece 100644
--- a/docs/apps/gpu-upgrades.md
+++ b/docs/apps/gpu-upgrades.md
@@ -4,9 +4,6 @@

-:::success
-从长远来看,我们有意向提供国产的算力硬件支持,比如 天数、曙光等,也有意向提供非 GPU 硬件支持,比如 HPU、IPU 或 TPU。如果您有特定的人工智能硬件需求,并且希望在上面运行您的应用,请您告知我们(通过网页下方的“意见反馈”)。这样的反馈对我们非常重要,可以帮助我们更好地了解社区的需求,从而规划和扩展我们的硬件支持策略,以满足广泛的使用场景和性能要求。
-:::
当您的应用运行时,您可以直接从小风车上查看它运行在哪个硬件上:
@@ -14,11 +11,15 @@
## 特定的框架要求
-大多数应用在进行 GPU 升级后应该能够直接运行,但有时您可能需要安装匹配的 CUDE 。为确保您的应用能够利用好升级后的硬件,请遵循以下指南:
+:::warning
+国产显卡已内置 torch、tensorflow、 vllm 等定制软件,请勿更换版本,否则算力可能无法正常还使用。
+详情参考:
+[国产算力](/docs/apps/china-computing-power)
+:::
### PyTorch
-您需要安装与内置 CUDA 驱动程序兼容的 PyTorch 版本。将以下两行添加到您的 requirements.txt 文件中:
+Nvidia 显卡您需要安装与内置 CUDA 驱动程序兼容的 PyTorch 版本。将以下两行添加到您的 requirements.txt 文件中:
```html
--extra-index-url https://mirrors.aliyun.com/pytorch-wheels/cu121
@@ -29,9 +30,9 @@ torch
```python
import torch
-print(f"Is CUDA available: {torch.cuda.is_available()}")
+print(f"CUDA 可用: {torch.cuda.is_available()}")
# True
-print(f"CUDA device: {torch.cuda.get_device_name(torch.cuda.current_device())}")
+print(f"设备名称: {torch.cuda.get_device_name(torch.cuda.current_device())}")
# Tesla T4
```
diff --git a/docs/apps/iluvatar-ai-app-contest.md b/docs/apps/iluvatar-ai-app-contest.md
index 67aa6a1d84607df3b8aeed3a66403a98a74193c4..fef28ea533a80631267ac3f9c583de03b756e26c 100644
--- a/docs/apps/iluvatar-ai-app-contest.md
+++ b/docs/apps/iluvatar-ai-app-contest.md
@@ -8,7 +8,7 @@
## Gitee AI 应用简介
-- Gitee AI 应用引擎可以自由编写任何程序,您可以使用 Python、JavaScript 或 Go、Java、Ruby、PHP、Rust、C++ 等任何编程语言(使用 Docker)来构建您的应用。
+- Gitee AI 应用可以自由编写任何程序,您可以使用 Python、JavaScript 或 Go、Java、Ruby、PHP、Rust、C++ 等任何编程语言(使用 Docker)来构建您的应用。
- 借助 AI 模型能力,您可以构建一个创意十足、功能强大的 Web 程序。您可以通过 transformers 、diffusers 等库加载 Gitee AI 模型,也可以使用 HTML、JS 等任意编程语言构建界面、调用 Gitee AI 模型引擎 或其他渠道提供的 API 服务。
@@ -110,8 +110,11 @@ FROM registry.gitee-ai.local/base/iluvatar-corex:3.2.0-bi100
> SDK 为 Docker 时,将完全由您自定义环境, 需要您自己执行相关操作,本次竞赛环境中,为正常使用算力,需要使用 registry.gitee-ai.local/base/iluvatar-corex:3.2.0-bi100 作为基础镜像
- **应用中如何高速下载模型**?
- 使用 transformers、diffusers 、huggingface_hub 等库载入模型将会从 Gitee AI 高速下载,原理是这些库使用的 `HF_ENDPOINT` 环境变量指向了 Gitee AI 内部服务。或者您也可以使 Git。
+ 使用 transformers、diffusers 、huggingface_hub 等库载入模型将会从 Gitee AI 高速下载。您也可以使 Git 克隆模型。
+:::tip
+在 **应用** 中,请勿修改环境变量 `HF_ENDPOINT` ,默认即内网高速下载。
+:::
格式一般为 `hf-models/模型名`:
- transformers:
@@ -137,9 +140,9 @@ FROM registry.gitee-ai.local/base/iluvatar-corex:3.2.0-bi100
- git lfs 内网下载 glm-4-9b-chat 到 ./checkpoints 文件夹。
```bash
git clone https://gitee.com/hf-models/glm-4-9b-chat.git --depth=1 --single-branch --progress --verbose
- -c lfs.url="http://lfs-service/hf-models/glm-4-9b-chat" ./checkpoints
+ -c lfs.url="http://lfs-service/hf-models/glm-4-9b-chat" ./checkpoints # 然后可以从 ./checkpoints 文件夹加载模型。
```
- 然后可以从 ./checkpoints 文件夹加载模型。
+
:::tip
- **哪些模型可在应用中高速下载?**
@@ -153,7 +156,7 @@ FROM registry.gitee-ai.local/base/iluvatar-corex:3.2.0-bi100
- 如何让团队成员有权限推送代码到仓库?
- 应用设置 “成员管理” 可前往 Gitee 添加仓库成员。
- 如果使用 SSH 方式推送代码,需要 Gitee 用户添加 SHH 公钥 https://gitee.com/profile/sshkeys
+ 如果使用 SSH 方式推送代码,需要 Gitee 账号添加 SHH 公钥 https://gitee.com/profile/sshkeys
- 如何在本次算力中使用 stable-diffusion-3?
应用 SDK 选择 Docker,根目录 Dockerfile 使用此基础镜像即可:
diff --git a/docs/apps/overview.md b/docs/apps/overview.md
index 0aaf2460f55fb7629b35107668d6808d319cf4fc..2915e81524706f5ce45529aa010570b610885606 100644
--- a/docs/apps/overview.md
+++ b/docs/apps/overview.md
@@ -2,8 +2,6 @@
Gitee AI 的应用功能让您能够在几分钟内轻松创建和部署由 ML 驱动的展示应用。
-在接下来的章节中,您将学习创建**应用**的基础知识,包括如何配置和部署您的代码到应用中。
-
## 创建应用
请访问个人主页并单击新建应用,创建您的应用。您需要为应用填写应用名称、选择许可证以及设置应用的可见性,同时您还需为您的空间选择 SDK。目前平台提供四个 SDK 选项:Streamlit、 Gradio、 Docker 和静态 HTML。您也可以为您的应用选择合适的硬件配置,其中包括各种规格参数的 CPU 及 GPU。如下:
@@ -22,23 +20,40 @@ Gitee AI 的应用功能让您能够在几分钟内轻松创建和部署由 ML

-## 管理密钥和环境变量
-
-如果您的应用需要使用环境变量(例如,密钥或令牌),为了防止泄露,请不要在应用的代码中硬编码这些信息!您应该进入您的**应用**“设置”页面,并添加新的变量或密钥(Secret)。如果您需要存储非敏感的配置键值对,请使用应用变量;如果需要存储访问令牌、 API 密钥或任何敏感信息或凭证,请使用应用密钥。
+## 应用密钥和变量
+您可以正常使用代码获取系统环境变量,它们将作为环境变量暴露给您的应用程序。
-应用变量是公开可访问和可查看的,会自动添加到从您仓库 Fork 的**应用**中。它们将作为环境变量暴露给您的应用程序。
+应用变量是公开的,被 Fork 时也会自动添加到 Fork 应用中。
-
+而秘钥也会作为环境变量注入,但秘钥被设置后不可见,也无法被 Fork,建议私有信息使用秘钥。
-应用密钥(Secrets)是私有的,设置后将无法被检索、显示。它们不会被添加到从您的仓库 Fork 的应用中。
+如果您在应用设置中添加了秘钥或环境变量 键: `G_TOKEN` 值: `b53de003db22348606b`,以 Python 为例,获取环境变量:
+```python
+import os
+G_TOKEN = os.getenv('G_TOKEN')
+print(G_TOKEN) # 输出: b53de003db22348606b
+```
-## 生命周期管理
+
-在免费硬件配置上,如果您的应用长时间没有被访问,那它将停止运行,并且“进入睡眠状态”。如果您希望您的应用无限期运行,请升级到付费硬件。您也可以从“设置”选项卡手动暂停应用。暂停的应用将停止运行,直到您手动重新启动(暂停时不计算硬件的租赁费)。
+## 应用设置
+应用设置界面可调整:
+
+- 名称、地址
+- 可见性、申请公开
+ - 应用申请公开需要审核,审核通过后,您的应用将会在应用列表中展示
+- 硬件套餐
+- 环境变量、密钥
+- 应用全屏
+ - 在功能设置中,您可以调整 `应用布局` 为全屏模式
+- 重启、暂停
+- 成员管理
+ - 应用私有状态下,仓库成员也可以访问应用。
+- 删除应用
## 仓库克隆
-您可以在本地克隆应用的仓库,首先请点击应用页面右上角的“克隆应用”:
+您可以在本地克隆应用的代码仓库,首先请点击应用页面右上角的“克隆应用”:

@@ -47,3 +62,5 @@ Gitee AI 的应用功能让您能够在几分钟内轻松创建和部署由 ML


+
+如果使用 SSH 方式推送代码,需要 Gitee 账号添加 SHH 公钥 https://gitee.com/profile/sshkeys
\ No newline at end of file
diff --git a/docs/apps/qa.md b/docs/apps/qa.md
index f54a475d5ddad909656224e7f3c5a45caa195102..ce11aedcd22c266c75a2dcb98eb81f24bfc8ec6d 100644
--- a/docs/apps/qa.md
+++ b/docs/apps/qa.md
@@ -1,10 +1,10 @@
# 应用问答
-### 应用显示 Running 为什么页面没有响应?
+## 应用显示 Running 为什么页面没有响应?
- 如果您查看日志,应用运行正常,您可以检查您的应用是否运行在 **7860** 端口。
- 或者检查应用是否运行在 **0.0.0.0** ip 上,如果是其他特定的 ip, 则可能无法访问。
-### 为什么我的应用会出现 CORS、CRSF 等报错,导致页面无法访问?
+## 为什么我的应用会出现 CORS、CRSF 等报错,导致页面无法访问?
- 您需要取消应用的访问限制,例如 jupyter-lab, 存在配置 `--NotebookApp.allow_remote_access=True` 允许远程访问,`--NotebookApp.allow_origin=*` 允许跨域请求。
Streamlit 也有类似的配置,例如
```
@@ -20,15 +20,15 @@ ENTRYPOINT ["streamlit", "run", "app.py", \
```
通常这些配置都可添加到启动参数上。
-### 如何排查错误
+## 如何排查错误
您可以点击界面的日志按钮,查询日志信息,以及提供的运行时信息。将会提供当前状态的原因、消息,上次启动失败的报错信息、重启次数、退出码等。

-### 为什么我的应用一直在 Pending 状态?
+## 为什么我的应用一直在 Pending 状态?
可能是正在分配资源,或平台 CPU、内存资源不足,请耐心等待
-### 应用各类状态是什么意思?
+## 应用各类状态是什么意思?
|状态名称|描述|
|---|---|
|No_app_file|应用没有入口文件|
@@ -41,7 +41,7 @@ ENTRYPOINT ["streamlit", "run", "app.py", \
|Stopped|应用异常停止,可能是系统或代码出现异常|
|Runtime_error|应用运行时出现错误,可能是代码或系统错误|
|Sleeping|应用休眠中,满足休眠倒计时,效果同暂停|
-### 应用设置中的“出厂重启”和“重启”有什么区别?
+## 应用设置中的“出厂重启”和“重启”有什么区别?
|类型|出厂重启|重启|
|-|-|-|
|是否拉取仓库最新代码|是|否|
@@ -63,7 +63,7 @@ ENTRYPOINT ["streamlit", "run", "app.py", \
4. 启动镜像,执行仓库中的用户代码,最终启动服务到 7860 端口
5. 用户可在浏览器在线访问应用
-### 如何在应用中使用环境变量、秘钥?
+## 如何在应用中使用环境变量、秘钥?
您可以正常使用代码获取系统环境变量。
> 注意,秘钥也会作为环境变量注入,但秘钥被设置后不可见,也无法被 Fork。
@@ -77,7 +77,7 @@ G_TOKEN = os.getenv('G_TOKEN')
print(G_TOKEN) # 输出: b53de003db22348606b
```
-### 如何安装依赖?
+## 如何安装依赖?
- python 依赖
- SDK 为 Gradio、Streamlit 时,将 python 依赖写入 requirements.txt 即可。
- 系统依赖
@@ -87,11 +87,11 @@ print(G_TOKEN) # 输出: b53de003db22348606b
npm
```
-### 下载依赖镜像源可以自定义吗?
+## 下载依赖镜像源可以自定义吗?
Gitee AI 默认使用了国内镜像源,您可以自行修改镜像源地址加速,例如 Python requirements.txt 文件:
```
---extra-index-url https://mirrors.aliyun.com/pytorch-wheels/cu121
-torch==2.1.1
+--extra-index-url https://mirrors.cloud.tencent.com/pypi/simple
+gradio==4.31.5
```
推荐使用的国内源源:
- 腾讯 https://mirrors.cloud.tencent.com/pypi/simple
@@ -99,21 +99,22 @@ torch==2.1.1
- 中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/
- 清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/
-### 免费存储空间是多少?存储的数据会消失吗?
+## 免费存储空间是多少?存储的数据会消失吗?
目前应用免费临时存储为 60GB,如果您未购买持久存储,则临时存储在应用重启、超额时会被清空。
+参考:[应用存储](/docs/apps/storage)
-### 为什么我的应用在页面中高度不对?
+## 为什么我的应用在页面中高度不对?
如果您自定义了程序,请在 html 中引用即可:
```js
-
+
```
-### 创建的应用,Web 界面太小,如何全屏?
+## 创建的应用,Web 界面太小,如何全屏?
应用设置 - 功能 - 应用 Header 布局中可选择布局。
-### 如何让我的应用被推荐?
+## 如何让我的应用被推荐?
如果您开发了优秀、好玩、有趣的应用,您可以前往 [反馈](https://gitee.com/gitee-ai/feedback/issues) 提供应用信息申请
diff --git a/docs/apps/sdks-docker.md b/docs/apps/sdks-docker.md
index 7f9651d7bcaeb93841c31d24177feb7bd175bdf4..5c466b3de5963be5d8bf5c78d263f4fff2089561 100644
--- a/docs/apps/sdks-docker.md
+++ b/docs/apps/sdks-docker.md
@@ -8,8 +8,8 @@
### 编写 Dockerfile 部署自己的 JupyterLab !
要点: 将您的 Dockerfile 放置于仓库根目录下,并将您的程序运行在 7860 端口即可。例如:
-```bash
-FROM ubuntu:latest
+```Dockerfile
+FROM ubuntu:latest # 国产算力需使用特定镜像,例如 天垓 100:`FROM registry.gitee-ai.local/base/iluvatar-corex:3.2.0-sd3-bi100`
RUN apt-get update && \
apt-get install -y python3.9 \
python3-pip \
@@ -37,23 +37,6 @@ RUN chown -R jupyter:jupyter /home
您可以在应用设置中管理应用的环境变量。[阅读更多](/apps/overview#管理密钥和环境变量)
-
-#### 构建
-
-在构建 Docker 应用时,变量作为构建参数(build-args)传递。阅读 [Docker 专用文档](https://docs.docker.com/reference/dockerfile/#arg),以获得如何在 Dockerfile 中使用这一功能的完整指南。
-
-```bash
-
-# 使用 ARG 指令声明您的环境变量
-ARG MODEL_REPO_NAME
-
-FROM python:latest
-# [...]
-# 您可以像使用环境变量一样使用它们
-RUN predict.py $MODEL_REPO_NAME
-
-```
-
## 权限
容器以用户 ID 为 1000 的用户身份运行。为了规避权限相关的问题,您应当在进行文件复制(COPY)或下载之前,先创建一个用户并设定其工作目录(WORKDIR)。
diff --git a/docs/apps/sdks-gradio.md b/docs/apps/sdks-gradio.md
index 8de1dcf6533196aac8f893d177c49ba0fbf7d041..34a94384d81f870f7e1dd62bba0b30bd72e47f4c 100644
--- a/docs/apps/sdks-gradio.md
+++ b/docs/apps/sdks-gradio.md
@@ -2,6 +2,10 @@
Gradio 提供了简单直观的界面,让模型可以通过一系列输入,生成图像、音频等内容进行展示输出。现在,Gradio 还增加了一个绘图输出组件,可以使用 Matplotlib、Bokeh 和 Plotly 让数据可视化!更多细节,请查看 Gradio 的[入门指南](https://www.gradio.app/guides/quickstart)。
+:::tip
+Gradio 仅为 UI 库,SDK 自带 Python 环境,您可以在应用中直接使用 Python 代码,也可以自行安装其他依赖。
+:::
+
在[创建新应用](https://ai.gitee.com/apps/new)时选择 Gradio 作为 SDK。
访问 [Gradio 文档](https://www.gradio.app/docs/interface)了解其所有特性,并查看 [Gradio 指南](https://www.gradio.app/guides),这些实用的教程可以指导您使用Gradio!
diff --git a/docs/apps/storage.md b/docs/apps/storage.md
index 8648ae12d566ce0de9bf9aceb5dca456726df61a..07ee30aa164a54041f6cfcedb76ea9da3352a37e 100644
--- a/docs/apps/storage.md
+++ b/docs/apps/storage.md
@@ -1,18 +1,28 @@
-# 应用持久存储
+# 应用存储
-## 应用磁盘存储空间
+## 临时存储
-每个应用都配备了少量磁盘存储空间。这部分磁盘空间是临时的,也就是说,如果您的应用重启或停止,其内容将会丢失。如果您需要持久化存储数据,使其生命周期长于应用本身,您可以:
+每个应用都赠送 60 GB 临时存储,足以存储大部分 AI 大模型。
+以下情况会导致数据清空:
-- [Gitee AI 提供的持久化存储服务](#持久化服务)
-:::info
-后续将提供数据集持久化教程
-:::
+- 应用重启、暂停
+- 占用存储超过 60 GB
+
+重启应用后,会再次执行仓库代码。如果需要持久化存储数据,可以使用持久存储套餐。
-## 持久化服务
+## 应用持久存储套餐
-如果您需要持久化的数据比您的应用生命周期更长,您可以考虑使用平台提供的持久化服务。首先您需要进入应用的设置界面,选择“应用硬件”选项卡,持久化服务在硬件配置服务最下方。
+
-
+## 应用持久存储使用方式
+1. 选择附带持久存储的应用套餐
+2. 使用代码将数据存入 /data 即可
+
+:::tip 包含持久存储的套餐
+ - 如果持久存储为 20 GB,加上临时存储,则总存储为 80 GB。
+ - 存入 /data 目录的数据在应用重启、暂停时不会被清空。
+ - 其他目录数据依旧是临时存储。
+ - 需要合理管理存储空间,无法写入数据时注意清理。
+:::
\ No newline at end of file
diff --git a/docs/getting-started/app.md b/docs/getting-started/app.md
index 677607518cb8e15a7feab66b522f43080772126a..e5344d0a4e3ba8e8b1912c3fa57558161fca7a33 100644
--- a/docs/getting-started/app.md
+++ b/docs/getting-started/app.md
@@ -1,8 +1,9 @@
# 开发并部署 AI 应用
-## 应用引擎简介
-- Gitee AI 的**应用引擎** 可以自由编写任何程序,您可以使用 Python、JavaScript、HTML、Go、Java、Ruby、PHP、Rust、C++ 等任何编程语言,使用 Dockerfile 高度自定义构建您的应用。
-- 借助 AI 模型能力,您可以构建一个创意十足、功能强大的 Web 程序。您可以通过 transformers 、diffusers 库加载 [Gitee AI 模型](https://ai.gitee.com/models),也可以使用 HTML、JS 等任意编程语言构建界面、调用 [Gitee AI 模型引擎](https://ai.gitee.com/endpoints) 或其他渠道提供的 API 服务。
+## 应用简介
+- 使用应用,借助 AI 模型能力,您可以构建一个创意十足、功能强大的 Web 程序。
+- Gitee AI 的应用可以自由编写任何程序,您可以选择预设的 Streamlit 和 Gradio 常用的 SDK。您也可以使用 Dockerfile 来高度自定义运行环境。
+- 您可以通过 transformers 、diffusers 库加载 [Gitee AI 模型](https://ai.gitee.com/models),也可以使用 HTML、JS 等任意编程语言构建界面、调用 [Gitee AI 模型引擎](https://ai.gitee.com/endpoints) 或其他渠道提供的 API 服务。
- 在线部署后,可通过浏览器直接访问、分享您的应用、推广您自己的模型、创意,而无需考虑服务器、算力资源、域名、部署等复杂繁琐问题。
[前往新建应用!](https://ai.gitee.com/apps/new)
@@ -174,7 +175,7 @@ transformers

-至此,您已经成功构建了一个中文古诗生成器应用!您还可以进入应用设置中升级硬件配置、调整应用信息、添加环境变量、秘钥等。
+在此示例中,您已经成功构建了一个中文古诗生成器应用!您还可以进入应用设置中升级硬件配置、调整应用信息、添加环境变量、秘钥等。
## 更多应用示例
- [应用首页](https://ai.gitee.com/apps)
diff --git a/docs/getting-started/concept.md b/docs/getting-started/concept.md
index b92dd99105363fb12bb60c9650484035d6f8ac86..6d944bc147f8496667eb1af71dd085005671b7e6 100644
--- a/docs/getting-started/concept.md
+++ b/docs/getting-started/concept.md
@@ -4,7 +4,7 @@ Gitee AI 是一个正在内测的开源社区平台,它汇聚了最新最热
## 名词解释
-- **应用引擎**:利用[创建应用](/apps/overview#创建应用)将您的应用部署以及托管到平台,应用支持 Gradio、 Streamlit、 HTML 等官方架构,也支持自定义的 Dockerfile,让您随心所欲灵活地开发您的应用。
+- **应用引擎**:利用[创建应用](/apps/overview#创建应用)将您的应用部署以及托管到平台,应用支持 Gradio、 Streamlit、 HTML 等官方 SDK,也支持自定义的 Dockerfile,让您随心所欲灵活地开发您的应用。
- **模型引擎**:利用平台专有架构快速部署您的模型,让您无需为模型部署的技术细节烦恼,并且为您提供可以直接进行模型功能调用的 API 接口,让您快人一步体验模型功能。
@@ -28,8 +28,8 @@ Gitee AI 是一个正在内测的开源社区平台,它汇聚了最新最热
## 应用
-- 基于应用仓库内的代码和配置文件构建和部署应用,支持高度自定义应用外观和功能。
-- 支持 Gradio 和 Streamlit Python SDK,以及创建纯静态应用,也支持 Dockerfile 这种高度自定义的应用。
+- 通过 Git 仓库托管机器学习演示应用,支持使用 Python 库如 Streamlit、Gradio,或通过 Dockerfile、静态 HTML 构建应用。您可以构建一个创意十足、功能强大的 Web 程序。
+- 应用中可以加载 Gitee AI 模型,或调用 API 服务,提交代码更新应用后,即可通过浏览器访问和分享,无需担心服务器、算力或部署问题。
## 网站地址
diff --git a/docs/intro.md b/docs/intro.md
index de21ad886010add734600aaadffb9eb9fe383ffc..cc510a104c64ee8d18e7795ddea6c8349554937f 100644
--- a/docs/intro.md
+++ b/docs/intro.md
@@ -38,11 +38,8 @@ Gitee AI 收录了大量的数据集,这些数据集适用于自然语言处
### 应用
-应用是 Gitee AI 提供的模型演示功能。平台是基于您应用仓库内的代码和配置文件来构建和部署您的应用,从而让您可以高度自定义应用的外观和功能。
-
-目前,我们支持 Gradio 和 Streamlit,这两个 Python SDK 可以让您快速构建功能强大、内容丰富的应用。此外,用户还可以创建纯静态应用,即包含简单 HTML/CSS/JavaScript 的页面。
-
-我们提供了基础的免费 CPU 算力,同时也支持升级到更强的 CPU 和 GPU 算力。您可以查阅[应用文档](/apps)了解更多有关应用的信息。
+- 通过 Git 仓库托管机器学习演示应用,支持使用 Python 库如 Streamlit、Gradio,或通过 Dockerfile、静态 HTML 构建应用。您可以构建一个创意十足、功能强大的 Web 程序。
+- 应用中可以加载 Gitee AI 模型,或调用 API 服务,提交代码更新应用后,即可通过浏览器访问和分享,无需担心服务器、算力或部署问题。
## 引擎
@@ -59,7 +56,7 @@ Gitee AI 收录了大量的数据集,这些数据集适用于自然语言处
### 训练引擎
-训练引擎是的基于应用引擎打造的,目的是为您提供易用的模型微调训练能力,您只需要选择模型、数据集、算力资源,即可开始微调模型。微调后的模型将被推送到您的私有模型仓库中,然后通过免费的模型引擎服务进行测试,并可以通过专属硬件部署模型引擎把您的新模型集成到产品中。
+训练引擎是的基于应用打造的,目的是为您提供易用的模型微调训练能力,您只需要选择模型、数据集、算力资源,即可开始微调模型。微调后的模型将被推送到您的私有模型仓库中,然后通过免费的模型引擎服务进行测试,并可以通过专属硬件部署模型引擎把您的新模型集成到产品中。
## Serverless API
Serverless API 为开发者提供一个便捷的方式来调用不同种类的模型,无需关心底层的硬件或管理服务器。此 API 支持通过简单的 HTTP 请求在 Gitee AI 的共享基础设施上进行快速推理。
diff --git a/docs/models/downloading.md b/docs/models/downloading.md
index 83c8f725be352765b397da6d1adbac7ca67d02f8..7cc8292a4a23aca487d11bbf13339430a741f355 100644
--- a/docs/models/downloading.md
+++ b/docs/models/downloading.md
@@ -24,6 +24,9 @@ import os
os.environ["HF_HOME"] = "~/.cache/gitee-ai"
os.environ["HF_ENDPOINT"] = "https://hf-api.gitee.com"
```
+:::tip
+在 **Gitee AI 应用** 中,**无需修改** 环境变量 `HF_ENDPOINT` ,默认即内网高速下载。
+:::
#### 2. 下载模型或本地模型推理
diff --git a/sidebars.ts b/sidebars.ts
index 59fed3ac71da519b751e89eb606a9af8d7d7f158..07acf758ccb4bb0a6a727be712309cd6dc1b1586 100644
--- a/sidebars.ts
+++ b/sidebars.ts
@@ -146,6 +146,10 @@ const sidebars: SidebarsConfig = {
type: 'doc',
id: 'apps/sdks-docker',
},
+ {
+ type: 'doc',
+ id: 'apps/china-computing-power',
+ },
{
type: 'doc',
id: 'apps/qa',
diff --git a/static/img/app/images.png b/static/img/app/images.png
deleted file mode 100644
index 2ff8ff37e8582814edf6e03d58b659bfe5616104..0000000000000000000000000000000000000000
Binary files a/static/img/app/images.png and /dev/null differ
diff --git a/static/img/app/ixsmi.png b/static/img/app/ixsmi.png
new file mode 100644
index 0000000000000000000000000000000000000000..8116cb68b0b7abb9b9272978c221f823a1de0489
Binary files /dev/null and b/static/img/app/ixsmi.png differ
diff --git a/static/img/app/storage.png b/static/img/app/storage.png
new file mode 100644
index 0000000000000000000000000000000000000000..a423c0451c3679cb65be3b8a37ca0e36bee6ba8e
Binary files /dev/null and b/static/img/app/storage.png differ