# evaluation 1. 在lm2上部署vllm,加载webrl-llama-3.1-8b模型 ```bash MODEL_PATH=/data1/yuyr/webrl-llama-3.1-8b export HF_ENDPOINT=https://hf-mirror.com PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True CUDA_VISIBLE_DEVICES=2 python -m vllm.entrypoints.openai.api_server --served-model-name webrl-llama-3.1-8b \ --model $MODEL_PATH \ --gpu-memory-utilization 0.9 \ --max-num-seqs 32 \ --dtype half \ --port 18080 ``` 2. g14上已经部署好shopping/shopping_admin/gitlab/reddit四个网站,map使用官网(使用socks5代理); 3. 运行`wa_parallel_run_webrl_completion.sh`,注意!一定是这个completion,不要chat,否则webrl模型SR会降低很多。 ```bash # 需要先建好vab conda环境 tmux new -t webrl bash wa_parallel_run_webrl_completion.sh ``` # orm 测试 1. lm2上部署vllm,加载webrl-orm-llama-3.1-8b模型 ```bash MODEL_PATH=/data1/yuyr/webrl-orm-llama-3.1-8b export HF_ENDPOINT=https://hf-mirror.com PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True CUDA_VISIBLE_DEVICES=1 python -m vllm.entrypoints.openai.api_server --served-model-name webrl-orm-llama-3.1-8b \ --model $MODEL_PATH \ --gpu-memory-utilization 0.9 \ --max-num-seqs 32 \ --dtype half \ --port 18081 ``` 2. 执行分析脚本 ```bash cd result python orm_test.py --data_dir webrl_chat_completion/ ``` 3. 修改.env 配置使用vllm或者aiproxy api 3. 修改`orm_test.py`中model的值,指定模型