亚洲一区亚洲二区,日亚毛片av免费不卡一区二区久久国产日韩欧美激情_国产又粗又黄又爽又硬的图片_国产精品自线在线播放_9999久久

快速部署大模型!QKE 助你開啟自己的 AI 時代

2023 年,大模型和 AIGC 的發(fā)展呈現(xiàn)出快速推進的態(tài)勢,不僅在技術層面有所突破,而且在產(chǎn)業(yè)應用和市場前景方面也展現(xiàn)出積極的趨勢。

為了方便更多企業(yè)用戶體驗,本文將介紹如何通過青云容器引擎 QKE 快速部署 ChatGLM-6B 大模型,開啟屬于您自己的 AI 時代!

什么是 QKE

QKE 是基于 Kubernetes 的容器引擎,能夠輕松地管理和部署容器化應用。它具備自動化擴容、高可用性、安全性等多項優(yōu)勢,讓應用更加穩(wěn)定、高效。

近日,新發(fā)布的 QKE v3.1 版本不僅提高了容器集群的性能、可靠性、安全性和可維護性,還為大模型應用場景提供了更好的支持。

5 分鐘部署大模型

接下來,我們來看看如何使用 QKE 容器引擎部署 ChatGLM-6B 大模型。

01、創(chuàng)建 QKE GPU 集群

第一步:創(chuàng)建一個帶有 GPU 工作節(jié)點池的 QKE 集群

QKE 集群創(chuàng)建成功后,如需以 HTTP 訪問帶授權(quán)的鏡像倉庫,可在集群信息,鏡像參數(shù)中配置鏡像拉取的 insecure-registries、docker-auths。

第二步:檢查 GPU 工作節(jié)點上 GPU Device Plugin 的就緒情況。
kubectl describe nodes worker-g001 | grep gpu
nvidia.com/gpu: 2
nvidia.com/gpu: 2
nvidia.com/gpu 0 0

第三步:將 GPU 工作節(jié)點打上標簽:accelerator: nvidia-gpu
kubectl?label?nodes?worker-g001?accelerator=nvidia-gpu

02、部署 ChatGLM-6B

第一步:編輯創(chuàng)建 K8s deployment 和 service 的 chatglm-6b.yaml。


apiVersion: v1
kind: Namespace
metadata:
name: chatglm


apiVersion: apps/v1
kind: Deployment
metadata:
name: chatglm
namespace: chatglm
spec:
replicas: 1
selector:
matchLabels:
app: chatglm
template:
metadata:
labels:
app: chatglm
spec:
containers:
– name: chatglm-container
image: 139.198.188.112:81/appcenter/chatglm3:gpu-fp16
imagePullPolicy: IfNotPresent
command: [“stremlit”,”run”,”basic_demo/web_demo_streamlit.py”,”–server.port”,”8900″]
ports:
– containerPort: 8900
resources:
limits:
nvidia.com/gpu: 1
nodeSelector:
accelerator: nvidia-gpu


apiVersion: v1
kind: Service
metadata:
name: chatglm-web
namespace: chatglm
spec:
ports:
– port: 7860
protocol: TCP
targetPort: 8900
selector:
app: chatglm
type: NodePort

其中 nodeSelector.accelerator: nvidia-gpu 讓 Pod 調(diào)度到的 GPU 工作節(jié)點。

第二步:部署 ChatGLM-6B

kubectl apply -f chatglm-6b.yaml

03、暴露服務給外部訪問

第一步:通過如下命令找到 NodePort 號

root@master1:~# kubectl get service -n chatglm

NAME          TYPE       CLUSTER-IP      EXTERNAL-IP   PORT(S)          AGE

chatglm-web   NodePort   10.96.204.196   <none>        7860:30313/TCP   3h

這里顯示 NodePort 號為 30313 

第二步:在 QKE 集群對應的 VPC 上,添加一條端口轉(zhuǎn)發(fā)規(guī)則,轉(zhuǎn)發(fā)到節(jié)點的?30313 端口。

04、測試訪問

打開瀏覽器, 輸入地址 http://<VPC的EIP地址:VPC源端口>  即可訪問 ChatGLM  推理服務。

整個部署過程非常簡單,只需幾步,就可以快速完成大模型應用的部署。而且,QKE 還提供了豐富的監(jiān)控和日志功能,能夠?qū)崟r了解應用的運行狀態(tài)和性能。

如果您正在尋找一個高效、穩(wěn)定、易用的容器引擎,不妨試試 QKE 吧!

結(jié)語

隨著 AI 技術的不斷進步和在各行各業(yè)中的深入應用,大模型的發(fā)展將會更加迅速,其在處理大規(guī)模數(shù)據(jù)和復雜任務方面的能力將得到進一步的提升。同時,大模型在自然語言處理、計算機視覺、推薦系統(tǒng)等領域的應用也將不斷拓展,為各行各業(yè)帶來創(chuàng)新的解決方案。

QKE 作為一款強大的容器引擎,為大模型和 AI 及其他 AI 應用提供了健壯、易用、輕簡的云原生基礎設施。通過 QKE,可以更好地實現(xiàn) AI 與業(yè)務的結(jié)合,推動 AI 技術在不同領域的廣泛應用。

熱門標簽
Ubuntu
邊緣計算
飛騰
教育
超融合
云易捷
數(shù)據(jù)
存儲
U10000
云服務器
RadonDB
數(shù)據(jù)庫
復制成功