⚡ 阅读摘要
- 在 tola.work 的实操经验中,30 分钟内产出候选人优先名单是可复现的。
- 目标:自动评分 + 汇总 3–5 位优先推荐,附简短理由,便于 HR 快速审核。
- 工具核心:批量文本处理模型(例如 GPT 系列) + 简明评分规则模板。
- 输出格式要结构化,便于粘贴到面试安排表或 ATS 中。
今晚 22:00,HR 小周收到业务方催问:“明天上午要面试名单。” 桌上堆着 48 份简历和 30 份笔试题答案。 小周眼下已有两个面试要排,还要准备邮件与面试官。她翻开Excel,想起去年的加班筛选——错过了几位合适候选人,留下被质疑的记录。 时间只有 30 分钟。 她想要的是一个可复核、带优先顺序的名单:不用人工逐条读完,也不能完全交给机器判断。 她需要的是一个“可执行”的、结构化的推荐表,能立刻发给业务并留存审计记录。
为什么传统方法不再高效?
这是我们在 tola.work 中最常见的一类问题。
- 时间成本:人工逐条读简历+笔试平均 10–15 分钟/人,48 人需要 8 小时以上。赶时间时只会草率判定。
- 认知负荷:招聘者在短期内对同一类信息疲劳。简历关键词会形成锚定效应,容易忽略潜在匹配度。
- 出错率与不确定性:不同面试官标准不一致,评分主观性大。结果要么漏人,要么冒然放大候选劣势导致错失合适人选。
在 tola AI 办公指南中,这类场景反复出现。我们需要把重复性判断交给 AI,把最终决定权保留给人。
tola 实操法:人机协作解决模型
在 tola 实操法中,这一步的关键是把“规则化判断”交给 AI,把“价值判断与风险把控”留给人。
- 人负责:最终的候选优先级复核、对异常结果的怀疑与二次核验、面试安排与沟通决策。
- AI负责:批量抽取简历与笔试关键项、按统一评分规则打分、生成候选人优劣摘要与推荐理由、输出结构化清单。
流程简述:标准化 → 批量执行 → 人速审。先定义评分规则(岗位必备项、加分项、笔试分布、自动扣分项),把规则做成 Prompt 模板。AI 批量跑分并生成每人一页摘要与推荐标签(强烈推荐/可面/后备),最终由 HR 在 10 分钟内复核并锁定 3–5 名优先面试者。
实操指南
准备清单(表格)
| 项目 | 说明 | 样例 / 格式 |
|---|---|---|
| 简历文件 | 文本或 PDF(可批量转为文本) | name_resume.txt |
| 笔试答案 | 文本或表单导出 | exam_answers.csv |
| 职位要件 | 必备项、加分项、不可接受项 | 必备:3 年经验;加分:项目经验 |
| 模型与接口 | 支持批量请求的 LLM 或本地部署 | GPT-4/Claude/自托管 LLM |
| 输出模板 | 表格字段:评分、摘要、推荐等级 | id,name,score,summary,recommendation |
步骤(按顺序执行):
- 标准化输入
- 具体动作:把简历和笔试统一转为纯文本,按候选人 ID 命名。
- 示例输入/操作方式:使用批量 OCR 或文本抽取脚本(示例:resume_01.txt, answer_01.txt)。
- 模拟反馈:全部文件在 5–8 分钟内标准化,减少后续处理差错,节省约 30–40% 前期时间。
- 设定评分规则并生成评分 Prompt(一次性)
- 具体动作:把岗位要件转成结构化评分维度(必备、加分、扣分),形成 Prompt 模板。
- 示例输入/Prompt:见下方“参考 Prompt 模板”。
- 模拟反馈:生成一致的评分基线,预期评分一致性提升 50%。
- 批量调用模型做自动评分与摘要生成
- 具体动作:用脚本把每位候选人的简历 + 笔试内容连同评分 Prompt 发送给 LLM,获取评分、关键词与 2–3 行推荐理由。
- 示例输入/操作方式:for each candidate → call LLM(scores + summary) → write CSV。
- 模拟反馈:48 人批量处理约 10–15 分钟;节省 6–7 小时人工读档时间。
- 快速人工复核与出名单(10 分钟规则)
- 具体动作:HR 按高到低排序查看 top10 的摘要与推荐理由,挑出 3–5 人并做二次核验(查看关键证据)。
- 示例操作:只打开包含异常扣分或高分但样本少的候选人。
- 模拟反馈:人工复核时间约 8–12 分钟,输出最终 3–5 人名单并生成面试日程。
- 记录与反馈(保留可审计记录)
- 具体动作:保存所有 Prompt、模型输出与复核决策,用于后续纠偏与模型调优。
- 预期效果:可追溯,降低未来争议风险。
参考 Prompt 模板
角色设定:
你是一个严格的招聘评分助手,目标是根据给定的岗位要求对每位候选人的简历与笔试答案进行评分,并输出结构化结果,便于 HR 快速复核。
任务背景:
岗位:{职位名称}
必备项(不可缺少):{必备项,逗号分隔}
加分项:{加分项}
不可接受项(直接淘汰条件):{不可接受项}
输入:
候选人简历文本:
{resume_text}
候选人笔试答案:
{exam_text}
约束条件:
1) 必备项缺失直接标注为“淘汰”,并给出缺失项列表。
2) 评分按 0–100,权重:简历 60%,笔试 40%。在输出中列出每项子评分与最终总分。
3) 输出要简洁,语言中立,不带偏见,不涉及敏感属性(年龄、性别、民族等)。
4) 输出必须包含 1–2 行的推荐理由(可面/不推荐/强烈推荐)和可检索的证据点(引用简历或笔试的具体句子)。
5) 输出格式必须为 JSON,字段:id, name, resume_score, exam_score, total_score, recommendation, evidence, short_summary。
输出格式示例(严格遵守 JSON):
{
"id": "candidate_01",
"name": "张三",
"resume_score": 72,
"exam_score": 80,
"total_score": 75,
"recommendation": "可面",
"evidence": ["简历:3 年相关经验", "笔试:算法题答案正确率 80%"],
"short_summary": "有匹配经验,笔试表现稳健,建议进入面试池"
}适合使用 tola 实操法的场景:紧急筛选大量候选人、复用评分规则的岗位(如开发、产品、运营)以及需要保留审计轨迹的招聘流程。
修改建议:简历分数权重可根据岗位调整(如销售岗位把面试经验权重提到 70%);对高敏感性岗位加入独立合规检查步骤;当候选人答案为图片或附件时,先用 OCR 模块补充文本输入。
效果对比:使用前 vs 使用后
工作流程变化
- 使用前:人工逐条阅读 → 当前业务催促中断 → 难以保持标准一致性。
- 使用后:标准化规则 → AI 批量评分 → 人快速复核 → 清晰优先名单。
时间投入变化
- 使用前:48 简历 × 10 分/人 ≈ 8 小时。
- 使用后:标准化 + 批量调用 + 人复核 ≈ 30–45 分钟。节省约 4–8 小时。
结果稳定性变化
- 使用前:不同 HR 得到不同名单,主观性高。
- 使用后:评分一致性高、输出可复核,面试官对推荐更有信心。
进阶技巧 & 避坑指南
❌ 错误做法:把“是否通过面试”完全交给 AI。
✅ 正确做法:把“是否优先面试”作为 AI 输出,人来判定是否最终邀约。
❌ 错误做法:Prompt 太笼统,导致评分尺度漂移。
✅ 正确做法:用量化的必备/加分项和权重,示例化每一项评分标准。
❌ 错误做法:不保存 Prompt 与输出,遇到争议无法复盘。
✅ 正确做法:保存所有交互与版本,为后续调优与审计提供依据。
❌ 错误做法:把敏感或合规判断留给模型(如背景调查)。
✅ 正确做法:把合规与敏感项列为“人工二次核验”步骤。
延伸与下一步
本文展示的是 tola 方法论中的基础模型。 下一步可以把评分流程自动化成脚本(API 调用 + CSV 汇总)或按岗位模板建立行业词典,进一步把“自动评分 → 面试安排”连成一条流水线。 更多行业模板与脚本示例,可在 tola.work 的相关专题中继续深入查阅。

分享使用技巧
告诉大家你的独特用法
提出疑问
我们会尽快为你解答
评价工具
帮助他人做出更好决策
💬 评论须知:请保持友善和尊重。我们鼓励建设性的讨论,禁止广告、垃圾信息和人身攻击。