Claude Skill · High-pressure pre-submission review

expert-review-panel

一个面向论文、商业计划、代码、竞赛材料与创意作品的严审型 Claude Skill。 目标不是“给点温和建议”,而是在你真正提交之前,先把最可能致命的问题翻出来。

输出结构:专家报告 + P0/P1/P2 + 最终裁决 适配场景:论文 / BP / 代码 / 比赛 / 创意文案 设计重点:反群体思维、少数意见保护、主席自我对抗
5 阶段
接收分诊 → 独立评审 → 交叉辩论 → 主席裁决 → 输出自检
P0 / P1 / P2
问题按致命程度排序,而不是平均用力
4 件套
位置 + 证据 + 原因 + 修改方向

它适合什么场景?

Academic 论文 / Thesis / 基金申请
  • 投稿前发现论证断点、证据不足、结论跳跃
  • 模拟 harsh reviewer / supervisor / external examiner
Business 商业计划 / 路演材料 / 投前内审
  • 提前暴露一票否决项、商业逻辑断裂、风险遗漏
  • 帮助你在正式见投资人前先做高压演练
Engineering 代码 / 架构方案 / 技术评审
  • 不只挑格式,而是逼近生产事故、扩展性、可维护性问题
  • 适合上线前 review、方案评审、安全敏感变更
Competition & Creative 竞赛材料 / 答辩 PPT / 创意作品
  • 帮你从评委视角找跑题、说服力不足、叙事薄弱的问题
  • 适合赛前 dry-run 与创意文案的狠评

它为什么比“普通让 AI 看一眼”更有价值?

1. 不是泛泛总结,而是强制下结论

最后必须给出明确裁决,而不是模糊地说“整体不错,建议继续优化”。

GO CONDITIONAL GO NO-GO
2. 不是“多专家”就完事,而是防止一起漏判

这个项目明确针对 LLM 多角色评审常见的 shared blindness,加入盲评、魔鬼代言人、少数意见保护、一致通过警示等反群体思维机制。

3. 不是只给 prompt,而是带质量闸门

仓库里有输出模板、样例报告、验证脚本、基础 eval 与 GitHub Actions,适合公开分发和持续维护。

工作流 / Review flow

阶段 0 · 接收与分诊判断作品类型、目标场景、风险等级,不同作品走不同专家库。
阶段 1 · 独立评审每位专家先盲评,给出问题、优先级与置信度,减少互相带节奏。
阶段 2 · 交叉辩论暴露分歧、引入魔鬼代言人,逼出真正关键的冲突点。
阶段 3 · 主席裁决统一口径、校准阈值、给出 GO / CONDITIONAL GO / NO-GO。
阶段 4 · 输出自检在交付前检查四件套密度、优先级标签、模板占位符残留等格式问题。

怎么安装 / How to install

方式一:下载打包版本
  • 打开 Latest Release
  • 下载 expert-review-panel.skill 或版本化安装包
  • 导入 Claude Desktop / Claude Code
方式二:从源码安装
git clone https://github.com/491034170/expert-review-panel.git \
~/.claude/skills/expert-review-panel

重启 Claude 后,直接给出作品并要求严审即可。

方式三:先读文档再决定

常用触发方式 / Example prompts

论文 BP 代码 竞赛 创意作品
  • “帮我严审这份论文,看现在能不能投。”
  • “这份 BP 有没有会被投资人一票否决的硬伤?”
  • “Review 这段代码,按生产事故视角来挑问题。”
  • “像最苛刻的答辩评委一样,预审这份参赛材料。”

深入阅读 / Explore more