RockyHHH / Safety-Evaluating

本文提出了一个基于“文心一言”的中国LLMs的安全评估基准,其中包括8种典型的安全场景和6种指令攻击类型。此外,本文还提出了安全评估的框架和过程,利用手动编写和收集开源数据的测试Prompts,以及人工干预结合利用LLM强大的评估能力作为“共同评估者”。
22Updated last year

Alternatives and similar repositories for Safety-Evaluating:

Users that are interested in Safety-Evaluating are comparing it to the libraries listed below