SecBench / README_CN.md
secbench's picture
Upload README_CN.md
7ed8fa8 verified

SecBench:大规模+多维度全面评测大模型网络安全能力

English README

评估大型语言模型(LLMs)对于理解其在各种应用中的能力和局限性至关重要,包括自然语言处理和代码生成。现有的基准如MMLU、C-Eval和HumanEval评估了LLM的一般性能,但缺乏对特定专家领域如网络安全的关注。之前创建网络安全数据集的尝试面临着数据量不足和依赖选择题(MCQs)的限制。为了解决这些问题,我们提出了SecBench,一个大规模+多维度的基准数据集,旨在评估LLMs在网络安全领域的表现。SecBench的数据包括各种格式(选择题 - MCQs 简答题 - SAQs),不同能力水平(知识记忆和逻辑推理),多种语言(中文和英文),以及多个子领域的问题。该数据集通过从开放资源中收集高质量数据和组织网络安全问题设计竞赛构建,最终包含了44,823条选择题和3,087条问答题。特别是,我们使用了强大且成本效益高的LLMs来(1)标注数据和(2)构建自动评估问答题分数的评分Agent。通过对16个SOTA LLMs的基准测试,我们展示了SecBench的可用性。SecBench是目前最大的、最全面的LLM网络安全基准数据集,从质和量两方面对现有的网络安全能力评测数据进行了补充。

SecBench官网链接: link.

SecBench技术文章: link.

目录

SecBench设计

下图展示了SecBench设计的概述:这是一个全面的基准数据集,旨在从多层次多语言多形式多领域评估LLM在网络安全方面的能力。

image info

  • 多层次:我们将LLM在网络安全方面的能力分为两个不同的层次:知识记忆 - KR逻辑推理 - LR。其中,知识记忆考察LLM获取其现有知识的能力。这类问题的内容相对简单,不涉及复杂的推理。另一方面,逻辑推理评估LLM根据给定信息推断正确答案的能力。这些问题的难度相对较高,更能展示模型处理复杂问题的能力。

  • 多语言:SecBench包括两种主流语言的问题——中文和英文,以提供更全面的基准测试。

  • 多形式:与之前仅构建选择题(MCQs)的工作不同,SecBench还包括简答题(SAQs),以提供更全面的评估。这是因为SAQs比MCQs更具挑战性:对于MCQs,LLM只需从给定选项中选择正确答案,而对于SAQs,LLM需要根据给定问题自行构建答案。因此,SAQs可以在更高层次上评估LLM的能力,特别是考虑到LLM的固有局限性(如幻觉和重复)。

  • 多领域:SecBench中的问题涵盖了9个不同的领域,包括D1. 安全管理D2. 数据安全D3. 网络和基础设施安全D4. 安全标准和法规D5. 应用安全D6. 身份和访问控制D7. 基础软件和硬件技术D8. 终端和主机安全D9. 云安全。上述领域经过多轮头脑风暴和修订,预计涵盖了网络安全中大多数相关子领域。需要注意的是,我们不期望这些领域是正交的,一个问题可能合理地被标记为不同的领域。在我们的数据集中,一个问题只被分配一个从D1到D9中的最相关的领域标签。

数据示例

选择题示例

以下是一个选择题示例,标记在安全管理领域和逻辑推理层次。对于选择题,问题干中留有空白,并在answers中给出四个选项供测试的LLM选择,label指的是四个选项中的正确选项。

image info

简答题示例

以下是一个简答题示例,标记在数据安全领域和知识记忆层次。对于简答题,没有给出选择项,测试的LLM需要从头构建答案。在简答题中,answer指的是问题干的正确答案,将用于评估LLM的输出。

image info

基准测试

基于SecBench,我们对包括GPT系列和开源模型在内的16个SOTA LLMs进行了全面的基准测试。

选择题正确率

image info

简答题得分

image info

发布数据

我们发布了SecBench中的3,000个问题(在data文件夹下),包括:

注意: 发布的SecBench数据集也可以通过 huggingface链接 and zenodo链接 访问。

引用

@article{jing2024secbench,
  title={SecBench: A Comprehensive Multi-Dimensional Benchmarking Dataset for LLMs in Cybersecurity},
  author={Jing, Pengfei and Tang, Mengyun and Shi, Xiaorong and Zheng, Xing and Nie, Sen and Wu, Shi and Yang, Yong and Luo, Xiapu},
  journal={arXiv preprint arXiv:2412.20787},
  year={2024}
}

致谢

该工作在腾讯朱雀实验室、腾讯安全科恩实验室、清华大学、香港理工大学、上海人工智能实验室OpenCompass团队的帮助和支持下共同完成。