api-for-open-llm docker启动补充
因为大模型数据是在启动后下载在容器内部,所以先
mkdir ~/huggingface
然后再启动,这样就会下载到~/huggingface
文件夹中了
docker run -it -d --gpus all --ipc=host -p 7891:8000 --name=llm-api \
--ulimit memlock=-1 --ulimit stack=67108864 \
-v `pwd`:/workspace \
-v ~/huggingface:/root/.cache/huggingface \
llm-api:pytorch \
python api/server.py
Cache management
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

本文是原创文章,采用 CC BY-NC-ND 4.0 协议,完整转载请注明来自 uqoo.cc
评论
匿名评论
隐私政策
你无需删除空行,直接评论以获取最佳展示效果