1.5 KiB
1.5 KiB
evaluation
- 在lm2上部署vllm,加载webrl-llama-3.1-8b模型
MODEL_PATH=/data1/yuyr/webrl-llama-3.1-8b
export HF_ENDPOINT=https://hf-mirror.com
PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True CUDA_VISIBLE_DEVICES=2 python -m vllm.entrypoints.openai.api_server --served-model-name webrl-llama-3.1-8b \
--model $MODEL_PATH \
--gpu-memory-utilization 0.9 \
--max-num-seqs 32 \
--dtype half \
--port 18080
- g14上已经部署好shopping/shopping_admin/gitlab/reddit四个网站,map使用官网(使用socks5代理);
- 运行
wa_parallel_run_webrl_completion.sh
,注意!一定是这个completion,不要chat,否则webrl模型SR会降低很多。
# 需要先建好vab conda环境
tmux new -t webrl
bash wa_parallel_run_webrl_completion.sh
orm 测试
- lm2上部署vllm,加载webrl-orm-llama-3.1-8b模型
MODEL_PATH=/data1/yuyr/webrl-orm-llama-3.1-8b
export HF_ENDPOINT=https://hf-mirror.com
PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True CUDA_VISIBLE_DEVICES=1 python -m vllm.entrypoints.openai.api_server --served-model-name webrl-orm-llama-3.1-8b \
--model $MODEL_PATH \
--gpu-memory-utilization 0.9 \
--max-num-seqs 32 \
--dtype half \
--port 18081
- 执行分析脚本
cd result
python orm_test.py --data_dir webrl_chat_completion/
- 修改.env 配置使用vllm或者aiproxy api
- 修改
orm_test.py
中model的值,指定模型