Dataset Preview
Duplicate
The full dataset viewer is not available (click to read why). Only showing a preview of the rows.
The dataset generation failed because of a cast error
Error code:   DatasetGenerationCastError
Exception:    DatasetGenerationCastError
Message:      An error occurred while generating the dataset

All the data files must have the same columns, but at some point there are 1 new columns ({'qid'}) and 2 missing columns ({'title', 'text'}).

This happened while the json dataset builder was generating data using

hf://datasets/ihainan/DRCD-for-Document-Retrieval-Task/train/qrels.jsonl (at revision 833554dd804923dcbec75d142fde513b131d866b)

Please either edit the data files to have matching columns, or separate them into different configurations (see docs at https://hf.co/docs/hub/datasets-manual-configuration#multiple-configurations)
Traceback:    Traceback (most recent call last):
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1871, in _prepare_split_single
                  writer.write_table(table)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 623, in write_table
                  pa_table = table_cast(pa_table, self._schema)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2293, in table_cast
                  return cast_table_to_schema(table, schema)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2241, in cast_table_to_schema
                  raise CastError(
              datasets.table.CastError: Couldn't cast
              qid: string
              doc_id: string
              to
              {'doc_id': Value(dtype='string', id=None), 'title': Value(dtype='string', id=None), 'text': Value(dtype='string', id=None)}
              because column names don't match
              
              During handling of the above exception, another exception occurred:
              
              Traceback (most recent call last):
                File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 1438, in compute_config_parquet_and_info_response
                  parquet_operations = convert_to_parquet(builder)
                File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 1050, in convert_to_parquet
                  builder.download_and_prepare(
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 925, in download_and_prepare
                  self._download_and_prepare(
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1001, in _download_and_prepare
                  self._prepare_split(split_generator, **prepare_split_kwargs)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1742, in _prepare_split
                  for job_id, done, content in self._prepare_split_single(
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1873, in _prepare_split_single
                  raise DatasetGenerationCastError.from_cast_error(
              datasets.exceptions.DatasetGenerationCastError: An error occurred while generating the dataset
              
              All the data files must have the same columns, but at some point there are 1 new columns ({'qid'}) and 2 missing columns ({'title', 'text'}).
              
              This happened while the json dataset builder was generating data using
              
              hf://datasets/ihainan/DRCD-for-Document-Retrieval-Task/train/qrels.jsonl (at revision 833554dd804923dcbec75d142fde513b131d866b)
              
              Please either edit the data files to have matching columns, or separate them into different configurations (see docs at https://hf.co/docs/hub/datasets-manual-configuration#multiple-configurations)

Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.

doc_id
string
title
string
text
string
1001
广州
广州市,通称广州,简称广、穗,别称羊城,是中华人民共和国广东省的省会、副省级市和首批沿海开放城市。广州市为中国大陆和广东对外的商贸中心兼综合交通枢纽,是中国大陆的一线城市之一,也是粤港澳大湾区的中心城市之一,中国人民解放军南部战区联合指挥部亦驻扎该地。 广州拥有2200多年以上的建城史,是岭南文化的发源地和兴盛地,1982年被列为中国首批国家历史文化名城之一。广州从秦朝开始一直是郡治、州治、府治的行政中心和中国华南地区的政治、军事、经济、文化、法律及科教中心,也是近代中国革命的策源地和现代文明的重要摇篮。广州在南越国与南汉两个时期曾短暂作为地方割据政权的都城,进入现代后于1921年建立市政厅机构,开创了中国大陆的市政建制。 因自古以...
1002
国际足球联合会
国际足球联合会(法语:Fédération Internationale de Football Association,发音:[fedeʁasjɔ̃ ɛ̃tɛʁnasjɔnal də futbol asɔsjasjɔ̃]),简称国际足联(FIFA,[fifa] ()),是管理英式足球、室内五人足球和沙滩足球的国际体育组织,下辖211个会员协会。总部设于瑞士苏黎世。现任主席为詹尼·因凡蒂诺。国际足联负责组织世界重大足球赛事,当中最著名的是4年举办一次的世界杯。 旗帜 国际足球总会旗帜背景是蓝色的,中间是该组织的标志。目前的国际足联旗帜是在俄罗斯莫斯科2018年国际足联世界杯开幕式期间首次飘扬的,并一直沿用至今。 历史 二十世纪初...
1003
GIF
图像互换格式(英语:Graphics Interchange Format,简称GIF)是一种位图图形文件格式,以8位色(即256种颜色)重现真彩色的图像。由美国电脑科学家Steve Wilhite领导的线上服务供应商CompuServe团队开发,并于1987年6月15日发布。 它实际上是一种压缩文档,采用LZW压缩算法进行编码,有效地减少了图像文件在网络上传输的时间。它是目前全球资讯网广泛应用的网络传输图像格式之一。史蒂芬·威尔海特(Stephen Wilhite)在Compuserve公司工作时,率领工程团队发明GIF档,凭著体积小、成像相对清晰的优点,十分适合早期网际网路频宽小的环境,而今网路使用者将GIF档用于创作,变成用来...
1006
函数
函数(英语:function)是数学描述对应关系的一种特殊集合;粗略地说,从集合 X {\displaystyle X} 到集合 Y {\displaystyle Y} 的函数将 Y {\displaystyle Y} 的一个元素恰好分配给 X {\displaystyle X} 的每个元素。集合 ...
1007
摩尔多瓦
摩尔多瓦共和国(罗马尼亚语:Republica Moldova),通称摩尔多瓦(Moldova),是位于东欧的内陆国家,首都是基希讷乌。摩尔多瓦西邻罗马尼亚,北面、东面、南面毗邻乌克兰。 今天的摩尔多瓦,大部分领土属于中世纪的摩尔达维亚公国。摩尔达维亚公国在14世纪立国后,自16世纪开始沦为鄂图曼帝国的保护国。19世纪,摩尔达维亚所位于的比萨拉比亚地区被割让给俄罗斯帝国,同时与摩尔多瓦具有同缘关系的罗马尼亚人组建罗马尼亚联合公国。20世纪俄国发生革命后,比萨拉比亚地区先是独立,后又并入罗马尼亚王国。1940年,罗马尼亚王国割了此地予苏联,苏联遂控制摩尔达维亚地区,组建摩尔达维亚苏维埃社会主义共和国,为苏联的第15个加盟共和国。194...
1008
梅克伦堡-前波美拉尼亚
梅克伦堡-前波莫瑞(德语:Mecklenburg-Vorpommern)是德国东北部的一个州。它是由原梅克伦堡约三分之二的区域以及西波美拉尼亚,还有普里格尼茨的一小部分地区和北部的乌克马克组成。 地理 位置 梅克伦堡-前波莫瑞的南部是勃兰登堡州,北部靠波罗的海,西部临石勒苏益格-荷尔斯泰因州,西南面是下萨克森州,东边是波兰。 岛屿 该地有很长的海岸线和一些岛屿。其中包括珀尔岛、希登塞岛、吕根岛和乌瑟多姆半岛。吕根岛是德国最大的岛屿,岛上有著名的白垩岩,也是本州最出名的旅游区。 湖泊 本州湖泊众多,共有大小湖泊一千多个。被喻为千湖之州。 城市 当地虽然没有大城市,却有很多小城市。其中重要的城市包括3个汉萨同盟城市——罗斯托克、...
100
生物学
生物学(希腊语:βιολογία;拉丁语:biologia;德语:Biologie;法语:biologie;英语:biology)或称生物科学(biological sciences)、生命科学(英语:life sciences),是自然科学的一大门类,由经验主义出发,广泛研究生命的所有方面,包括生命起源、演化、分布、构造、发育、功能、行为、与环境的互动关系,以及生物分类学等。现代生物学是一个庞大而兼收并蓄的领域,由许多分支和分支学科组成。然而,尽管生物学的范围很广,在它里面有某些一般和统一概念支配一切的学习和研究,把它整合成单一的、连贯的领域。在总体上,生物以细胞作为生命的基本单位,基因作为遗传的基本单元,和进化是推动新物种的合成...
1010
吻切轨道
吻切轨道(osculating orbit)是太空中的天体在给定时间瞬间的克卜勒轨道(即椭圆或其他二次曲线)。这是在天文学,特别是天文动力学,当中心的天体不受到摄动时,这就是当前的轨道向量状态(位置和速度)的轨道。 一个吻切轨道和该天体的位置能以六个标准的克卜勒的轨道要素(吻切要素)充分的描述,只要知道相对于中心天体的位置和速度,就很容易计算。在没有摄动的情形下,吻切要素将保持不变。然而,真正的天体轨道都会经历摄动,这会导致吻切要素的改变,而且有时会非常的快速。在一般性运动(因为它们主要是行星、月球和其他行星的卫星)的天体力学分析中通常会排除,可以由一组平均要素与长期和周期性的项目描述。在小行星的情况,已经展出一套新的自身轨道要素系...
1012
伊藤穰一
伊藤穰一(1966年6月19日—),通常称为Joi Ito,是一个日本活动家、企业家和风险投资,日本网际网路普及的重要人物。现为MIT媒体实验室主管。做为企业家,关注互联网和科技公司,并成立一些公司,如日本PSINet,Digital Garage和日本Infoseek。他还有成立部落格,维基和IRC频道。伊藤穰一是创作共用的执行长和Neoteny实验室的共同合伙人。 生平 1966年出生在京都市,4岁至14岁时在美国密歇根州居住。曾就读塔夫茨大学计算机科学系,学习过程中,发现计算机科学的教育过于僵化而休学。在塔夫茨大学时遇到后来的eBay创办人的Pierre Omidyar。其后于芝加哥大学物理学系就读,也因为发展方向与学校不符...
1013
汉字
"汉字,又称汉文、华文、中文、华语字、唐话字、唐人字、中国字,是书写(...TRUNCATED)
End of preview.

DRCD for Document Retrieval (Simplified Chinese)

This dataset is a reformatted version of the Delta Reading Comprehension Dataset (DRCD), converted to Simplified Chinese and adapted for document-level retrieval tasks.

Summary

The dataset transforms the original DRCD QA data into a document retrieval setting, where queries are used to retrieve entire Wikipedia articles rather than individual passages. Each document is the full text of a Wikipedia entry.

The format is compatible with the data structure used in the LongEmbed benchmark and can be directly plugged into LongEmbed evaluation or training pipelines.

Key Features

  • 🔤 Language: Simplified Chinese (converted from Traditional Chinese)
  • 📚 Domain: General domain, from Wikipedia
  • 📄 Granularity: Full-document retrieval, not passage-level
  • 🔍 Use Cases: Long-document retrieval, reranking, open-domain QA pre-retrieval

File Structure

corpus.jsonl

Each line is a single Wikipedia article in Simplified Chinese.

{"id": "doc_00001", "title": "心理", "text": "心理学是一门研究人类和动物的心理现象、意识和行为的科学。..."}

queries.jsonl

Each line is a user query (from the DRCD question field).

{"qid": "6513-4-1", "text": "威廉·冯特为何被誉为“实验心理学之父”?"}

qrels.jsonl

Standard relevance judgments mapping queries to relevant documents.

{"qid": "6513-4-1", "doc_id": "6513"}

This structure matches LongEmbed benchmark's data format, making it suitable for evaluating long-document retrievers out of the box.

Example: Document Retrieval Using BM25

You can quickly try out document-level retrieval using BM25 with the following code snippet:

https://gist.github.com/ihainan/a1cf382c6042b90c8e55fe415f1b29e8

Usage:

$ python test_long_embed_bm25.py /home/ihainan/projects/Large/AI/DRCD-Simplified-Chinese/ir_dataset/train
...0
Building prefix dict from the default dictionary ...
Loading model from cache /tmp/jieba.cache
Loading model cost 0.404 seconds.
Prefix dict has been built successfully.
...200
...400
...600
...800
...1000
...1200
...1400
...1600
...1800

Acc@1: 64.76%
nDCG@10: 76.61%

License

The dataset is distributed under the Creative Commons Attribution-ShareAlike 3.0 License (CC BY-SA 3.0). You must give appropriate credit and share any derivative works under the same terms.

Citation

If you use this dataset, please also consider citing the original DRCD paper:

@inproceedings{shao2018drcd,
  title={DRCD: a Chinese machine reading comprehension dataset},
  author={Shao, Chih-Chieh and Chang, Chia-Hsuan and others},
  booktitle={Proceedings of the Workshop on Machine Reading for Question Answering},
  year={2018}
}

Acknowledgments

  • Original data provided by Delta Research Center.
  • This project performed format adaptation and Simplified Chinese conversion for IR use cases.
Downloads last month
390