“信息检索评价指标”的版本间的差异
来自《信息检索》
(未显示同一用户的7个中间版本) | |||
第3行: | 第3行: | ||
Recall=检出的相关文献量/检索系统中的相关文献总量=a/(a十b) | Recall=检出的相关文献量/检索系统中的相关文献总量=a/(a十b) | ||
*注意,由于在系统的数据库中,针对某一提问的全部相关文献数量不能精确获知,R的计算结果一般都是近似值。 | *注意,由于在系统的数据库中,针对某一提问的全部相关文献数量不能精确获知,R的计算结果一般都是近似值。 | ||
− | |||
#查准率(Precision Ratio,简称P)是衡量系统在实施某一检索作业时检索精确度的一个测度指标,其计算方法为: | #查准率(Precision Ratio,简称P)是衡量系统在实施某一检索作业时检索精确度的一个测度指标,其计算方法为: | ||
− | + | Precision=检出的相关文献量/检出的文献总量=a/(a十c) | |
− | *2×2表建立在二值的主题相关性判断的表达方式上。源自2×2表的查全率和查准率,自1956年由肯特(Kent)、贝瑞(Beny)等人提出以来,一直是检索系统性能评价中的两个重要而经典的指标,它们结合起来,描述了系统的检索成功率。 | + | *2×2表建立在二值的主题相关性判断的表达方式上。源自2×2表的查全率和查准率,自1956年由肯特(Kent)、贝瑞(Beny)等人提出以来,一直是检索系统性能评价中的两个重要而经典的指标,它们结合起来,描述了系统的检索成功率。<ref>苏新宁.信息检索理论与技术[M].北京:科学技术文献出版社,2004:194-195</ref>。 |
+ | |||
+ | '''参考文献''' | ||
+ | <references/> |
2010年5月17日 (一) 22:11的最新版本
检索性能评价是信息检索评价的重点和核心,而"相关性"与"相关性判断"是检索性能评价不可或缺的标尺与基准。从20世纪60年代的大型评价试验Cranfield,到今天的TREC评价平台,检索性能评价活动一直是以系统相关性判断为主导的,其间形成的许多评价指标也主要建立在系统相关性的匹配标准上,并一直沿用至今。其中,最著名的指标主要派生于检索系统性能评价用2*2表。
- 查全率(Recall Ratio,简称R)是衡量系统在实施某一检索作业时检出相关文献能力的一种测度指标,其计算方法为:
Recall=检出的相关文献量/检索系统中的相关文献总量=a/(a十b)
- 注意,由于在系统的数据库中,针对某一提问的全部相关文献数量不能精确获知,R的计算结果一般都是近似值。
- 查准率(Precision Ratio,简称P)是衡量系统在实施某一检索作业时检索精确度的一个测度指标,其计算方法为:
Precision=检出的相关文献量/检出的文献总量=a/(a十c)
- 2×2表建立在二值的主题相关性判断的表达方式上。源自2×2表的查全率和查准率,自1956年由肯特(Kent)、贝瑞(Beny)等人提出以来,一直是检索系统性能评价中的两个重要而经典的指标,它们结合起来,描述了系统的检索成功率。[1]。
参考文献
- ↑ 苏新宁.信息检索理论与技术[M].北京:科学技术文献出版社,2004:194-195