The full dataset viewer is not available (click to read why). Only showing a preview of the rows.
Error code: DatasetGenerationCastError
Exception: DatasetGenerationCastError
Message: An error occurred while generating the dataset
All the data files must have the same columns, but at some point there are 1 new columns ({'qid'}) and 2 missing columns ({'title', 'text'}).
This happened while the json dataset builder was generating data using
hf://datasets/ihainan/DRCD-for-Document-Retrieval-Task/train/qrels.jsonl (at revision 833554dd804923dcbec75d142fde513b131d866b)
Please either edit the data files to have matching columns, or separate them into different configurations (see docs at https://hf.co/docs/hub/datasets-manual-configuration#multiple-configurations)
Traceback: Traceback (most recent call last):
File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1871, in _prepare_split_single
writer.write_table(table)
File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 623, in write_table
pa_table = table_cast(pa_table, self._schema)
File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2293, in table_cast
return cast_table_to_schema(table, schema)
File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2241, in cast_table_to_schema
raise CastError(
datasets.table.CastError: Couldn't cast
qid: string
doc_id: string
to
{'doc_id': Value(dtype='string', id=None), 'title': Value(dtype='string', id=None), 'text': Value(dtype='string', id=None)}
because column names don't match
During handling of the above exception, another exception occurred:
Traceback (most recent call last):
File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 1438, in compute_config_parquet_and_info_response
parquet_operations = convert_to_parquet(builder)
File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 1050, in convert_to_parquet
builder.download_and_prepare(
File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 925, in download_and_prepare
self._download_and_prepare(
File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1001, in _download_and_prepare
self._prepare_split(split_generator, **prepare_split_kwargs)
File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1742, in _prepare_split
for job_id, done, content in self._prepare_split_single(
File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1873, in _prepare_split_single
raise DatasetGenerationCastError.from_cast_error(
datasets.exceptions.DatasetGenerationCastError: An error occurred while generating the dataset
All the data files must have the same columns, but at some point there are 1 new columns ({'qid'}) and 2 missing columns ({'title', 'text'}).
This happened while the json dataset builder was generating data using
hf://datasets/ihainan/DRCD-for-Document-Retrieval-Task/train/qrels.jsonl (at revision 833554dd804923dcbec75d142fde513b131d866b)
Please either edit the data files to have matching columns, or separate them into different configurations (see docs at https://hf.co/docs/hub/datasets-manual-configuration#multiple-configurations)Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.
doc_id string | title string | text string |
|---|---|---|
1001 | 广州 | 广州市,通称广州,简称广、穗,别称羊城,是中华人民共和国广东省的省会、副省级市和首批沿海开放城市。广州市为中国大陆和广东对外的商贸中心兼综合交通枢纽,是中国大陆的一线城市之一,也是粤港澳大湾区的中心城市之一,中国人民解放军南部战区联合指挥部亦驻扎该地。
广州拥有2200多年以上的建城史,是岭南文化的发源地和兴盛地,1982年被列为中国首批国家历史文化名城之一。广州从秦朝开始一直是郡治、州治、府治的行政中心和中国华南地区的政治、军事、经济、文化、法律及科教中心,也是近代中国革命的策源地和现代文明的重要摇篮。广州在南越国与南汉两个时期曾短暂作为地方割据政权的都城,进入现代后于1921年建立市政厅机构,开创了中国大陆的市政建制。
因自古以... |
1002 | 国际足球联合会 | 国际足球联合会(法语:Fédération Internationale de Football Association,发音:[fedeʁasjɔ̃ ɛ̃tɛʁnasjɔnal də futbol asɔsjasjɔ̃]),简称国际足联(FIFA,[fifa] ()),是管理英式足球、室内五人足球和沙滩足球的国际体育组织,下辖211个会员协会。总部设于瑞士苏黎世。现任主席为詹尼·因凡蒂诺。国际足联负责组织世界重大足球赛事,当中最著名的是4年举办一次的世界杯。
旗帜
国际足球总会旗帜背景是蓝色的,中间是该组织的标志。目前的国际足联旗帜是在俄罗斯莫斯科2018年国际足联世界杯开幕式期间首次飘扬的,并一直沿用至今。
历史
二十世纪初... |
1003 | GIF | 图像互换格式(英语:Graphics Interchange Format,简称GIF)是一种位图图形文件格式,以8位色(即256种颜色)重现真彩色的图像。由美国电脑科学家Steve Wilhite领导的线上服务供应商CompuServe团队开发,并于1987年6月15日发布。
它实际上是一种压缩文档,采用LZW压缩算法进行编码,有效地减少了图像文件在网络上传输的时间。它是目前全球资讯网广泛应用的网络传输图像格式之一。史蒂芬·威尔海特(Stephen Wilhite)在Compuserve公司工作时,率领工程团队发明GIF档,凭著体积小、成像相对清晰的优点,十分适合早期网际网路频宽小的环境,而今网路使用者将GIF档用于创作,变成用来... |
1006 | 函数 | 函数(英语:function)是数学描述对应关系的一种特殊集合;粗略地说,从集合
X
{\displaystyle X}
到集合
Y
{\displaystyle Y}
的函数将
Y
{\displaystyle Y}
的一个元素恰好分配给
X
{\displaystyle X}
的每个元素。集合
... |
1007 | 摩尔多瓦 | 摩尔多瓦共和国(罗马尼亚语:Republica Moldova),通称摩尔多瓦(Moldova),是位于东欧的内陆国家,首都是基希讷乌。摩尔多瓦西邻罗马尼亚,北面、东面、南面毗邻乌克兰。
今天的摩尔多瓦,大部分领土属于中世纪的摩尔达维亚公国。摩尔达维亚公国在14世纪立国后,自16世纪开始沦为鄂图曼帝国的保护国。19世纪,摩尔达维亚所位于的比萨拉比亚地区被割让给俄罗斯帝国,同时与摩尔多瓦具有同缘关系的罗马尼亚人组建罗马尼亚联合公国。20世纪俄国发生革命后,比萨拉比亚地区先是独立,后又并入罗马尼亚王国。1940年,罗马尼亚王国割了此地予苏联,苏联遂控制摩尔达维亚地区,组建摩尔达维亚苏维埃社会主义共和国,为苏联的第15个加盟共和国。194... |
1008 | 梅克伦堡-前波美拉尼亚 | 梅克伦堡-前波莫瑞(德语:Mecklenburg-Vorpommern)是德国东北部的一个州。它是由原梅克伦堡约三分之二的区域以及西波美拉尼亚,还有普里格尼茨的一小部分地区和北部的乌克马克组成。
地理
位置
梅克伦堡-前波莫瑞的南部是勃兰登堡州,北部靠波罗的海,西部临石勒苏益格-荷尔斯泰因州,西南面是下萨克森州,东边是波兰。
岛屿
该地有很长的海岸线和一些岛屿。其中包括珀尔岛、希登塞岛、吕根岛和乌瑟多姆半岛。吕根岛是德国最大的岛屿,岛上有著名的白垩岩,也是本州最出名的旅游区。
湖泊
本州湖泊众多,共有大小湖泊一千多个。被喻为千湖之州。
城市
当地虽然没有大城市,却有很多小城市。其中重要的城市包括3个汉萨同盟城市——罗斯托克、... |
100 | 生物学 | 生物学(希腊语:βιολογία;拉丁语:biologia;德语:Biologie;法语:biologie;英语:biology)或称生物科学(biological sciences)、生命科学(英语:life sciences),是自然科学的一大门类,由经验主义出发,广泛研究生命的所有方面,包括生命起源、演化、分布、构造、发育、功能、行为、与环境的互动关系,以及生物分类学等。现代生物学是一个庞大而兼收并蓄的领域,由许多分支和分支学科组成。然而,尽管生物学的范围很广,在它里面有某些一般和统一概念支配一切的学习和研究,把它整合成单一的、连贯的领域。在总体上,生物以细胞作为生命的基本单位,基因作为遗传的基本单元,和进化是推动新物种的合成... |
1010 | 吻切轨道 | 吻切轨道(osculating orbit)是太空中的天体在给定时间瞬间的克卜勒轨道(即椭圆或其他二次曲线)。这是在天文学,特别是天文动力学,当中心的天体不受到摄动时,这就是当前的轨道向量状态(位置和速度)的轨道。
一个吻切轨道和该天体的位置能以六个标准的克卜勒的轨道要素(吻切要素)充分的描述,只要知道相对于中心天体的位置和速度,就很容易计算。在没有摄动的情形下,吻切要素将保持不变。然而,真正的天体轨道都会经历摄动,这会导致吻切要素的改变,而且有时会非常的快速。在一般性运动(因为它们主要是行星、月球和其他行星的卫星)的天体力学分析中通常会排除,可以由一组平均要素与长期和周期性的项目描述。在小行星的情况,已经展出一套新的自身轨道要素系... |
1012 | 伊藤穰一 | 伊藤穰一(1966年6月19日—),通常称为Joi Ito,是一个日本活动家、企业家和风险投资,日本网际网路普及的重要人物。现为MIT媒体实验室主管。做为企业家,关注互联网和科技公司,并成立一些公司,如日本PSINet,Digital Garage和日本Infoseek。他还有成立部落格,维基和IRC频道。伊藤穰一是创作共用的执行长和Neoteny实验室的共同合伙人。
生平
1966年出生在京都市,4岁至14岁时在美国密歇根州居住。曾就读塔夫茨大学计算机科学系,学习过程中,发现计算机科学的教育过于僵化而休学。在塔夫茨大学时遇到后来的eBay创办人的Pierre Omidyar。其后于芝加哥大学物理学系就读,也因为发展方向与学校不符... |
1013 | 汉字 | "汉字,又称汉文、华文、中文、华语字、唐话字、唐人字、中国字,是书写(...TRUNCATED) |
DRCD for Document Retrieval (Simplified Chinese)
This dataset is a reformatted version of the Delta Reading Comprehension Dataset (DRCD), converted to Simplified Chinese and adapted for document-level retrieval tasks.
Summary
The dataset transforms the original DRCD QA data into a document retrieval setting, where queries are used to retrieve entire Wikipedia articles rather than individual passages. Each document is the full text of a Wikipedia entry.
The format is compatible with the data structure used in the LongEmbed benchmark and can be directly plugged into LongEmbed evaluation or training pipelines.
Key Features
- 🔤 Language: Simplified Chinese (converted from Traditional Chinese)
- 📚 Domain: General domain, from Wikipedia
- 📄 Granularity: Full-document retrieval, not passage-level
- 🔍 Use Cases: Long-document retrieval, reranking, open-domain QA pre-retrieval
File Structure
corpus.jsonl
Each line is a single Wikipedia article in Simplified Chinese.
{"id": "doc_00001", "title": "心理", "text": "心理学是一门研究人类和动物的心理现象、意识和行为的科学。..."}
queries.jsonl
Each line is a user query (from the DRCD question field).
{"qid": "6513-4-1", "text": "威廉·冯特为何被誉为“实验心理学之父”?"}
qrels.jsonl
Standard relevance judgments mapping queries to relevant documents.
{"qid": "6513-4-1", "doc_id": "6513"}
This structure matches LongEmbed benchmark's data format, making it suitable for evaluating long-document retrievers out of the box.
Example: Document Retrieval Using BM25
You can quickly try out document-level retrieval using BM25 with the following code snippet:
https://gist.github.com/ihainan/a1cf382c6042b90c8e55fe415f1b29e8
Usage:
$ python test_long_embed_bm25.py /home/ihainan/projects/Large/AI/DRCD-Simplified-Chinese/ir_dataset/train
...0
Building prefix dict from the default dictionary ...
Loading model from cache /tmp/jieba.cache
Loading model cost 0.404 seconds.
Prefix dict has been built successfully.
...200
...400
...600
...800
...1000
...1200
...1400
...1600
...1800
Acc@1: 64.76%
nDCG@10: 76.61%
License
The dataset is distributed under the Creative Commons Attribution-ShareAlike 3.0 License (CC BY-SA 3.0). You must give appropriate credit and share any derivative works under the same terms.
Citation
If you use this dataset, please also consider citing the original DRCD paper:
@inproceedings{shao2018drcd,
title={DRCD: a Chinese machine reading comprehension dataset},
author={Shao, Chih-Chieh and Chang, Chia-Hsuan and others},
booktitle={Proceedings of the Workshop on Machine Reading for Question Answering},
year={2018}
}
Acknowledgments
- Original data provided by Delta Research Center.
- This project performed format adaptation and Simplified Chinese conversion for IR use cases.
- Downloads last month
- 390