Dataset Viewer
Auto-converted to Parquet Duplicate
text
stringlengths
1
5.54k
པུསྟཀབིཛཧཱརཾ །། ༄༅།། དཔལ་ལྡན་ བླ་མ་ དམ་པ་ རྣམས་ ལས་དམ་པ འི་ ཆོས་ ཐོས་པ འི་ ཡི་གེ་ དོན་གཉེར་
གདེངས་ཅན་ རོལ་པ འི་ ཆུ་གཏེར་ ཞེས་ བྱ་བ་ ལ ས་ གླེགས་བམ་ དང་པོ་ བཞུགས་ སོ །། ༄།། མཉམ་པ འི་ བྲྀཏྟ་
རྒྱུན་ཆགས་ ལ་ སྤྱིར་ པྲཱསྟཱ་ ར་ ཐེར་ ༨༥༨༩༩༡༤༤༥༩༢ འབུམ་ བརྒྱད་ དང་ དུང་ཕྱུར་ ལྔ་ རྗེས་ འབྲང་ བཅས་
ཡོད་པ ར་ ཡང་བ འི་ བྱ་བ་ གཅིག་ ཡང་བ་ སུམ་ཅུ་རྩ་གསུམ་ རྗེས་ འབྲང་ བཅས ། ཡི་ ༢༨༣༤༦༧༨༤༡༥༢༦ གེ་ རབ་བཀྲམ་
གཉིས་ རྗེས་ འབྲང་ བཅས ། ལྕི་ ཡང་ སོ་སོ་ རབ་ ༡༤༡༧༣༣༩༢༠༧༦༨ བཀྲམ་ གཅིག་ རྗེས་ འབྲང་ བཅས ། ཕྱི་
༤༢༥༢༠༡༧༦༢༣༠༦ མོ་ རབ་བཀྲམ ། ༄།། དཤདིགཔརིམཱིཏཧིཀྵེཏྲདྷཱཏུམྦཤཾབརྟྟིསརྦྦཛྙམནྨཐཛིཙྩཀྲགུཧྱོ྅ཀྵཡཱལཾཏྲིཎཱ །།
༄།། ཕྱོགས་་་་་་ བསམ་པ་ རྒྱ་ཆེ་བ་ ལ ས་ དྲངས་པ འི་ ཤིས་པ ར་ བརྗོད་པ ། བཅུ་ དཔག་ཡས་ ཞིང་ཁམས་ དབང་
སྒྱུར་ ཀུན་མཁྱེན་ ཡིད་སྲུབས་ ཐུལ་བ་ རྣམས་ ཀྱི་ གསང་ གསུམ་ མི་ཟད་ རྒྱན་ འཁོར་ལོ །། བཞི་ རྗེས་ འབྲང་
ནཥྞ་ ན་ ཟུང་ དང་ རེ་ ཕ་ དགུ་པ་ རྒྱ་མཚོ་ ཞེས་ བྱ་བ ར་ ཨུདྡིཥྚ་ ༢༤༥༤༢༦༧༠༢༢ ཐེར་འབུམ་ གཉིས་ རྗེས་ འབྲང་
དུ་ བཅས་པ་ ནས་ ཟིན་པ ས་ མཛེས་པ ར་ སྤྲས་པ འོ །། ༄།།
མབྷིབཙནཀདཱབིམཱཀོཊིནིཥྛཱཡཧོབྱཱུཧཡསྐཱཡརོམོདྦྷཝཱསནྱཡེཀཱཔིསཾཔཱུརྞཎིཏཾ །། ༄།། ངོ་མཚར་ བཀོད་པ་ བརྗོད་པ ས་
གཞར་ཡང་ མུ་མཐ ར་ ཐུག་ མིན་ གང་ སྐུ འི་ བ་སྤུ་ སྐྱེ་བ འི་ གོ་རེ ར་ རྫོགས་ གྱུར་ ཀྱང་ །། ༄།།
སམཡམིཧབྷགསྶམཱཀཱཡནིརྡེཤཡཱནྱཱཏྐྲྀཔཱརྠཱདྦྷཱུཏོབྷཱརིཀསྤཎྜིཏཱམརྷཀརྨྨཻསྟྲིབྷིཿ ༄།། དུས་ འདི ར་ སྐལ་བ་
མཉམ་པ འི་ སྐུར་ བསྟན་ བརྩེ་བ་ རྨད་བྱུང་ གཞན་དོན་ ཁུར་ ཁྱེར་ མཁས་པ་ ལ་ འོས་ ལ ས་ གསུམ་ གྱིས །། ༄།།
ཨབགཏདིགཛནྟུབྷིནྣེངྒསཱུཀྟེཎསརྦྦཏྲསཽཁྱམྤྲཎཱིམཾགལཉྩཀྲནཱཐཻཿ པྲཡཙྪནྟུམེ །། ༄།། ཕྱོགས་ བྲལ་ སྐྱེ་བོ་ ཐ་དད་
བློ ར་ འཚམ་ ལེགས་པ ར་ འདོམས་པ ས་ གཏན་ བདེ ར་ འཁྲིད་པ་ འཁོར་ལོ འི་ མགོན་ རྣམས་ དགེ་ལེགས་ སྩོལ །། ༡
རྣམ་་་་་་ ཤིས་པ ར་ བརྗོད་པ འི་ སྒོ་ གཉིས་པ་ རང་བཞིན་ བརྗོད་པ་ ལ ས་ ཡོན་ཏན་ གྱི་ རང་བཞིན་ བརྗོད་པ ། པ
གི ། ཡེ་ཤེས་ གཟིགས་པ འི་ འབབ་སྟེགས་ སུ་ཞིག་ རྒྱུད་ དུ་ བཅས་ ཙམ་ ཐོག་མེད་ འཁོར་བ ར་ ཉེར་ བསགས་
དཀར་མིན་ ཕུང་པོ་ འཇིག ། མཐའ་ ཀླས་ གཙུག་ལག་ ཀུན་ གྱི་ ལྟད་མོ་ ངོ་མཚར་ གཞན་ དྲིན་ མེད་པ ར་ ངོམ་ ལ་
སྟོབས་ བཅུ འི་ དབང་ཕྱུག་ ཐམས་ཅད་ ལ ས །། ཐུགས་རྗེ་ ཆེས་ མྱུར་ འཇཾམ་ དཔཾལ་ དབྱངཾས་ ཁྱོད་ རྣམ་དཔྱོད་
འཐིབས་ བུ་ བསལ་བ འི་ བཤེས་ སུ་ ལེགས་ སྤྱོན་ ངག་ གི་ དབང་ཕྱུག་ སྩོལ ། ༢ ། སྲིད་་་་་་ ཤིས་པ ར་ བརྗོད་པ
འི་ སྒོ་གསུམ་པ་ མཚུངས་ ཆོས་ དང་ འབྱེད་ བྱེད་ གཉིས་ཀ་ མཚུངས་པ འི་ ལྡོག་པ་ ཅན ། ཞི འི་ དངོས་པོ་ ཀུན་
གྱི་ གནས་ལུགས་ རྒྱུད་མངས་ གླུ་ དང་ ལྷན་ཅིག་ འདྲེན་མ་ གང་ དང་ སྟོན་དུས་ བསིལ་ སྦྱིན་ མཁན །། དཀར་མཛེས་
ལང་ཚོ་ ལྟ་ བྱེད་ དབང་པོ འི་ ཟིལ་མངར་ དུ་ གྱུར་ རི་དྭགས་ མིག་ སྒེག་ མཚར་སྡུག་ དཀྱིལ་འཁོར་ རྫོགས་པ་ ཅན
།། གཉིས་ སྐྱེས་ རྒྱལ་པོ ས་ ཐུན་ གསུམ་ དུས་ ཀྱི་ སྔོ་བསངས་ སྟུག་པོ འི་ གཉེན་པོ ར་ རྒྱུ འོ་ རྒྱལ་བ་ མ་
ལུས་ སྐྱེད་བྱེད་མ །། ཚངཾས་ པའིཾ་ སྲསཾ་ ཁྱོད་ ལུས་ཅན་ བློ་ ཡི་ ཀུན་ རྨོངས་ སྒྲིབ་པ་ སྦྱང་ ཕྱིར་
སྒོ་ དང་པོ་ གཟུགས་ཅན་ ལ ས་ མཐའ་དག་ གཟུགས ། བྱང་ཆུབ་ ཐུགས་བསྐྱེད་ ཐོག་མ འི་ ས་བོན་ མ་ རྨ ས་ ཀུན་གཞི
འི་ ནོར་ལྡན་ བརྟན་མ ར་ བཏབ །། དཔག་ཡས་ སྤྱོད་པ་ སྔོ་བསངས་ དུས་ ཀྱི་ དམ་ མས་ བསྐལ་པ་ ཚར་ དུ་ དངར་ ལ་
བསྐྱེད་ བསྲིངས་པ ས །། བླ་མེད་ བྱང་ཆུབ་ སྙེ་མ་ གཡུ ར་ ཟ་ ཕྲིན་ལས་ ལྷུན་གྲུབ་ ཡིད་ཅན་ ཀུན་ གྱི་ མོས་པ
འི་ སྣོད །། སྣ་ཚོགས་ ཕྱོགས་ ནས་ གདངས་པ འི་ རེ་ སྐོང་ སངཾས་ རྒྱསཾ་ དཔག་བསམ་ དབང་པོ འི་ ཐུགས་རྗེ འི་
གྲིབ་མ་ བསིལ ། ༤ ། གཉིས་ མེད་་་་་་ ཕྱག་ བྱ་བ འི་ སྒོ་ གཉིས་པ་ རང་བཞིན་ བརྗོད་པ་ ལ ས་ བྱ་བ འི་
རང་བཞིན་ བརྗོད་པ ། གསུང་ གི་ མཆུ་སྒྲོས་ འཛུམ་ དུ་ དམུལ་བ་ ལ ས་ འཕོས་ ཡན་ལག་ མ་ཚང་ མེད་པ འི་ གླུ ར །།
ཉེར་ བླངས་ བརྗོད་བྱ་ བདེན་པ་ ཟུང་ གི་ སྙིང་པོ ས་ རབ་ ལྕི་ ཡི་གེ་ མིང་ཚིག་ ཚོགས་ སུ་ དངར །། རྗོད་
བྱེད་ དཔྱད་ གསུམ་ རྣམ་དག་ ཕུང་པོ ར་ ལེགས་པ ར་ བཤད་པ ས་ གདུལ་བྱ འི་ ཀུན་ ནས་ ཉོན་མོངས་ དྲི །། བག་ ལ་
ཉལ་ བཅས་ མཐར་བྱེད་ ཕྲིན་ལས་ དགེ་བ་ སུམ་ ལྡན་ དམཾ་ པཾའི་ ཆོཾས་ དག་ ལམ་ དུ་ བགྱི ། ༥ ། རྒྱལ་་་་་་ ཕྱག་
ཟིལ་དངར་ ལོངས་སྤྱོད་ མི་ཟད་ མགྲོན་ དུ་ གཉེར་ བྱས་པ །། ཕྲ་ཞིབ་ གནང་བཀག་ གནས་ ལ་ རྟག་ ཏུ་ བག་ ཡོད་
ངེས་འབྱུང་ ཚུལ་ཁྲིམས་ སྲོག་ འཚོ འི་ བཅུད་ དུ་ བསྟེན །། བྱང་ཆུབ་ ཡོན་ཏན་ ལང་ཚོ་ དར་བབ་ གཅིག་ ཏུ་
གཞན་དོན་ སྤྱོད་པ འི་ ཁུར་ཆེན་ བླ་ ནས་ བླ ར །། མངོན་ འདེགས་ སྙིང་སྟོབས་ ཕྲག་པ་ རབ་ བརླིང་ འཕཾགས་
ཚོགཾས་ གསུམཾ་པོ་ ཚེ་རབས་ ཕྲེང་བ འི་ འགྲོགས་བཤེས་ གཟུང་ ། ༦ ། ལུང་་་་་་ ཕྱག་ བྱ་བ འི་ སྒོ་ བཞི་པ་
གཟུགས་ཅན་ གྱི་ གཟུགས་ཅན ། རྟོགས་ ཀུན་གསལ་ དགའ་མ འི་ བཞིན་རས་ མང་ཐོས་ མཐའ་བྲལ་ རྣ་བ་ ཡངས །། འཆད་
རྩོད་ རྩོམ་པ འི་ སྒྲོལ་བྱེད་ རྣམ་བཀྲ་ མུ་ཏིག་ དྲྭ་བ་ ཅི་ཡང་ འཁྲོལ །། མཁྱེན་ ནུས་ བརྩེ་བ འི་ ཆུ་ལྡན་
སྟུག་པོ འི་ ཚིགས་བཟང་ གོས་ ཀྱིས་ རྣམ་པ ར་ སྤ །། ཛཾམ་ བཱུ་ རྐང་འཐུང་ མཚན་པ འི་ གླིངཾ་ འདི ར་ མཁཾས་
པཾའི་ ལ ས་ བྱས་ གཾང་ དག་ བྱོཾན ། ༧ ། གསུང་་་་་་ ཕྱག་ བྱ་བ འི་ སྒོ་ ལྔ་པ་ བསྡུས་པ འི་ གཟུགས་ཅན ། རབ་
དགོངས་འགྲེལ་ ཨ་ ཤོ་ ཀ་ དཔལ་ ལེགས་སྦྱར་ རྒྱ་ ནང་ ཡུར་བ་ དག ། རང་བཞིན་ རྐྱེན་ དང་ རྣམ་འགྱུར་
འདབ་མ་ སྟོང་ ཕྱེ་བ །། སྐད་ གཉིསཾ་ བརྡཾ་ སྦྱོརཾ་ མཚར་སྡུག་ རོལ་པ ས་ མཐའ་དག་ བློ་ལྡན་ བརྟན་པ་ ཕྲོགས །
༨ ། ཐུབ་་་་་་ ཕྱག་ བྱ་བ འི་ སྒོ་ དྲུག་པ་ དཔེ་ རྒྱན་ ལ ས་ རྨོངས་པ འི་ དཔེ ། པ་ ཆེན་པོ འི་ བཀའ་ལུང་
མཐའ་ དྲུག་ དཀའ་ གནས་ ལྐོག་ ཏུ་ རབ་ སོང་བ །། གཞན་དྲིང་ མི་ འཇོག་ བཀྲལ་ མཐོང་ གང་ ཚེ་ འཇམ་པ འི་ དབྱངས་
སུ་ རྣམ་ བརྟགས་ ནས །། ཟུར་ཕུད་ ལྔ་ དང་ ཤེས་རབ་ རལ་གྲི ས་ མཚན་པ་ ལ ས་ བརྩམས་ སྙན་དངགས་ གླུ །།
འབུམ་ཕྲག་ བསྔགས་པ ས་ འཛམ་གླིང་ སྙན་ ནོ་ སཾ་ སྐྱའིཾ་ རྗེཾ་ བཙུནཾ་ རྣམཾ་པ་ ལྔཾ ། ༩ ། མཁས་་་་་་ ཕྱག་
བྱ་བ འི་ སྒོ་ བདུན་པ་ འགོག་ རྒྱན་ ལ ས་ ཆོས་ འགོག་པ ། བཙུན་ གྲུབ་པ འི་ ཡོན་ཏན་ ཕྱོགས་ རེ འི་
འཕྲིན་ཡིག་ སུ་ཞིག་ སྒྲ་འཛིན་ ལྷུང་ །། སྔོན་ མེད་ ཡ་མཚན་ སྐྱེ་བ་ འདི་ ཅི་ སྟོན་ མཆོག་ རང་ དང་ དགོངས་
གཅིག་ ཏུ །། མཁས་ ཚུལ་ གསུམ་ གྱིས་ ལེགས་པ ར་ བཤད་པ་ དེ་ མཐ ར་ འོད་ མཐའ་ཡས་པ འི་ ཞིང་ །། ཡུད་ ཀྱིས་
བགྲོད་པ འི་ རྒྱལ་པོ་ ཉིད་ དུ་ ལུང་བསྟན་ བརྙེས་པ་ ཀུནཾ་ དགཾའ་ བཟཾང་ ། ༡༠ ། བསོཾད་ ནཾམས་་་་་་ ཕྱག་
། གང་ གི་ བློ་གྲོས་ བཟཾང་ པོཾས་ དཔྱད་ བྱ་ རུ །། འཕགས་ དང་ སོ་སྐྱེ་ མཁས་པ ས་ གཙུག་ལག་ གཞུང་ །། ད་དུང་
བསྐལ་པ ར་ སྤྲུལ་ ཡང་ ཉུང་ སྙམ་ བགྱིད ། ༡༡ ། སྲིད་ཞི ར་ མི་ གནས་་་་་་ དགུ་པ་ དཔེ་ རྒྱན་ ལ ས་ ངག་ དོན་
གྱི་ དཔེ ། རྣམ་པ་ ཀུན་ མཆོག་ ཏུ །། བཀྲཾ་ ཤིསཾ་ སྒྲུབ་པ འི་ ཆོ་ག ས་ སྒྲིབ་པ་ གསུམ །། སྦྱོང་བ འི་
ཕྲིན་ལས་ ལྷུནཾ་ གྲུབཾ་ གཡས་འཁྱིལ་ དུང་ །། ལྡིར་བ འི་ སྒྲ ས་ བཞིན་ ཁོར་ཡུག་ ཡངས་པ ར་ བསྲུངས ། ༡༢ །
ཐམས་་་་་་ བཅུ་པ་ ཟོལ་བསྟོད་ ལ ས་ དཔའ་བ་ ཕུན་སུམ་ ཚོགས་པ འི་ ཟོལ་བསྟོད ། ཅད་ མཁྱེན་ ཀུན་ ཡོན་ཏན་
དཔག་ཡས་ ཀྱི །། བཀོད་པ་ ཚུལཾ་ ཁྲིམཾས་ དག་པ འི་ སྐུ་ གཅིག་ ལ །། ལྷུནཾ་ གྲུབཾ་ རྫོགས་པ ར་ བཀོད་ འདི ས་
རྒྱལ་ ཀུན་ གྱི །། ཡོན་ཏན་ ཉུང་ངུ ས་ དམའ་འབེབས་ མ་ བྱས་ གྲང་ ། ༡༣ ། ཆོས་ ཀུན་་་་་་ བཅུ་གཅིག་པ་
གཟུགས་ཅན་ གྱི་ རྒྱན་ ལ ས་ རྒྱུ འི་ གཟུགས་ཅན ། མགྲིན་ ལ ས་ འཇོ་བ ས་ ངཾག་ གི་ དབངཾ་ །། ཀུནཾ་ དགཾའི་
རིང་ལུགས་ ཡོངས་འཛིན་ རྒྱལ་ཚབ་ ཆེ །། དོན་ གཉིས་ ལྷུནཾ་ གྱིས་ གྲུབཾ་པ ས་ སྐུ་གསུམ་ གྱི །། ཁྱབ་བདག་
རང་བཞིན་ བརྗོད་པ་ ཏིང་ངེ་འཛིན་ གྱི་ རབ་ བརྟག་ གསུམ་ གྱི་ རབ་ སྤེལ ། ནམཾས་ ཐ་གྲུ་ ཡངས་པ འི་ དབངཾ་
ཕྱུགཾ་ གིས །། གཞུང་ལུགས་ རབ་འབྱམས་ འཛིན་ འཆད་ རྟུན་པ འི་ མཐུ ས །། རྒྱལ་བསྟན་ རིང་ འཚོ ར་ བསྒྲུབས་པ
ར་ དྲིན་ ཆེ་བ འི །། ཁུར་ གྱིས་ སྐྲག་པ འི་ ས་ འདི་ རྣམ་ དྲུག་ འད ར ། ༡༥ ། རྒྱལ་་་་་་ བཅུ་གསུམ་པ་
གཅིག་ ལ་ གཅིག་ ལྟོས་ ཀྱི་ རབ་ སྤེལ ། བ འི་ ཕྲིན་ལས་ རྨད་བྱུང་ ཟླ་ གཞོན་ གྱི །། སྣང་བ ས་ ནམཾ་ མཁཾའི་
ཕ་རོལ་ ཡོངས་ ཉུལ་བ འི །། ངོ་མཚར་ བསཾམ་ མི་ ཁྱབ་པ ས་ སྲེད་ མེད་ བུས །། ས་ གསུམ་ བཅལ་བ་ ཕྱོགས་ རེ འི་
གཏམ་ དུ་ གྲུབཾ ། ༡༦ ། འདོད་ འབྱུང་ ལྗོན་པ འི་་་་་་ བཅུ་བཞི་པ་ ལྡོག་པ་ ཅན་ གྱི་ གཟུགས་ཅན ། དབང་པོ ས་
ལེགས་ གསུངས་ ཆོས །། སྦྱིན་པ འི་ ཡལ་ག་ བརྐྱང་ མིན་ མགོན་པོ་ ཁྱོད །། གཞན་དོན་ ལ་ གཞོལ་ དཔཾལ་ ལྡཾན་
དཔག་བསམ་ གྱིས །། ཆོསཾ་ གཙོ ར་ གྱུར་པ འི་ སྦྱིན་ བཞི ས་ འགྲོ་བ་ སྐྱོངཾ་ ། ༡༧ ། ཀུནཾ་ དགཾའི་་་་་་
བཅོ་ལྔ་པ་ རིག་བྱེད་ གཏམ་ ལ ས་ དྲངས་པ་ བསྡུས་པ འི་ གཟུགས་ཅན ། དཔལ་ སྟེར་ ལམ་ གྱིས་ ལེགས་ སྦྱངས་པ འི
མཚར །། སྐལ་བཟང་ ཨཉྫ་ ན་ བུས་ དཀའ་བ ས་ རྟོགས ། ༡༨ ། ཐོས་པ་་་་་་ བཅུ་དྲུག་པ་ དགའ་བ འི་ རྒྱན་ ལ ས་
དངོས་ ཐོབ་ ཀྱི་ དགའ་བ ། ཕྲ་མོ ས་ མ་ གོས་ ཡིད་ གདུང་ ཚེ །། ཀུནཾ་ བཟང་ ལུགས་ མཆོག་མ་ ནོར་ ཅང་ འདོམས་པ
ས །། རབ་ དགའཾ་ གས ར་ དུ་ བསྐྲུན་ དེ་ བསྟནཾ་ འཛིཾན་ གྱི །། སྐྱེས་མཆོག་ དངོས་མཐོང་ མིན་པ ས་ ཅི་སྟེ་
ཐོབ ། ༡༩ ། བཾཀྲ་་་་་་ བཅུ་བདུན་པ་ སྦྱར་བ འི་ དཔེ་ རྒྱན ། ཤིསཾ་ པདྨ འི་ འདབ་མ་ སྟོང་ ལྡན་ བཞིན །།
མཁས་ བཙུན་ གྲུབ་པ འི་ ངང་ཚུལ་ བཟཾང་ པོཾ་ གང་ །། སྐྱེ་དགུ འི་ ཐོར་ཚུགས་ རྩེར་ མཛེས་ བསུང་ ཞིམ་ ལྡང་
།། སྙན་པ འི་ གླུ ར་ འཇོ་ བྱེ་ བས་ བསྔགས་པ འི་ ཡུལ ། ༢༠ ། གཙུག་་་་་་ བཅོ་བརྒྱད་པ་ སྒྲ ས་ ཟིན་ མཚུངས་པ
འི་ ལྡོག་པ་ ཅན་ ལ ས་ གཅིག་ གིས་ ལྡོག་པ ། ལག་ རབ་འབྱམས་ འཛིན་ དང་ འཆད་ མཁས་པ འི །། མཆུ་ འདབ་ སྙུང་བ་
རྫོགས་ སངཾས་ རྒྱསཾ་ མཚུངས་ ལ ས །། དཔཾལ་ སྟུག་ བཞི་པ འི་ ཕྲིན་ལས་ བཟཾང་པོ འི་ རྒྱུན །། སྣ་ཚོགས་ འགྲོ་
ལ་ འདོམས་པ ས་ རྣམ་པ ར་ དབྱེ ། ༢༡ ། ངགཾ་་་་་་ བཅུ་དགུ་པ་ མ་ བསྡུས་པ འི་ གཟུགས་ཅན ། དབངཾ་ གཞོན་ནུ་
ཟིལ་དངར་ སྐྱུགས་ རྒྱུན་ གྱིས །། བདེ་ འབྱུངཾ་ བསྟན་པ འི་ སྲོག་རྩ་ བརླིང་བ ར་ བྱས ། ༢༢ ། ངགཾ་་་་་་
ཉི་ཤུ་པ་ བསྙོན་ དོར་ གྱི་ རྒྱན་ ལ ས་ ཆོས་ ལ་ བསྙོན་པ ། གི་ དབངཾ་ ཕྱུག་ གྲུབ་ མཚན་ རབ་འབྱམས་ གཞུང་ །།
ཀུཾན་ དགའིཾ་ དཔལ་ དུ་ འཇོ་བ་ ཁྱོད་ གཅིག་ མཐུ །། མ་ ཡིན་ དྲན་དབང་ ཀུན་ གི་ རྩོམ་ འཆད་ དང་ །། རྩོད་པ
འི་ བློཾ་ གྲོསཾ་ མ་ བྱིན་ བླངས་པ ར་ ངེས ། ༢༣ ། རྒྱལ་་་་་་ ཉེར་ གཅིག་པ་ བསྡུས་པ འི་ གཟུགས་ཅན ། ཀུན་
ཕྲིན་ལས་ འཆིཾ་ མེདཾ་ རྫིང་ རིང་ ལ ས །། བློ་གྲོས་ ཀུན་ ཕན་ གཞོན་ནུ ས་ ཤེས་བྱ འི་ གནས །། བཅུ་ཕྲག་
སྣང་བ་ དཀར་པོ ས་ ཐུབཾ་ དབང་ གིས །། ཉེར་ བསྟནཾ་ རབཾ་ ཏུ་ གསལཾ་ མཛད་ ཁྱོད་ གཅིག་ ཁུམས ། ༢༤ ། རྣམ་་་་་་
ཉེར་ གཉིས་པ་ རྒྱ་ཆེ་བ འི་ རྒྱན་ ལ ས་ བསམ་པ་ རྒྱ་ཆེ་བ ། པ་ ཐམས་ཅད་ གཟིགས་པ འི་ སངཾས་ རྒྱསཾ་ ས ར །།
བགྲོད་པ ར་ ཆེ་བ འི་ ཡོན་ཏན་ རྩལ་ རྫོགས་ ཀྱང་ །། བདེ་ཆེན་ གྲོང་ དུ་ སེམས་ཅན་ སྨིན་ བྱ འི་ ཕྱིར །། ཟབ་
གསང་ བསྟནཾ་ པཾ་ སྨྲ་བ འི་ བརྟུལ་ཞུགས་ བཟུང་ ། ༢༥ ། སངཾས་་་་་་ ཉེར་ གསུམ་པ་ འགོག་པ འི་ གཟུགས་ཅན །
གདུང་བ་ བསྐྱེད་ ན་ རྒྱཾ་ མཚོཾ་ ཆེ །། བསྲུབས་སྐྱེས་ བསིལ་ སྦྱིན་ མཁན་ དུ་ ཇི་ལྟར་ སྨྲ ། ༢༦ །
སྦྱངས་་་་་་ ཉེར་ བཞི་པ་ བསྡུས་ དང་ མ་ བསྡུས་ བསྲེས་པ འི་ གཟུགས་ཅན ། སྟོབས་ དམན་པ་ མིན་པ འི་ སྨྱིག་
གུ་ ཡིས །། གཙུག་ལག་ ཆོསཾ་ ཀྱི་ གཟུགས་ སུ་ སྣང་ངོ་ འཚལ །། མཁྱེན་རབ་ རྩིག་ ལོགས་ བཀོད་པ་ བཀྲག་ ཆེ་བ འི
།། ངོ་མཚར་ ལེགས་པ ར་ བཤད་པ འི་ འབྱུངཾ་ གནཾས་ བཟང་ ། ༢༧ ། བསོདཾ་་་་་་ ཉེར་ ལྔ་པ་ དོན་གཞན་ འགོག་པ །
ནམཾས་ ཡངས་པ ར་ རྒྱལ་བ འི་ བཀའ་མ་ ལུས །། འཛིན་ འཆད་ དྲིན་ ལ་ ཕུལ་བྱུང་ མི་ བསྔགས་ ཏེ །། བློཾ་ གྲོསཾ་
ལྡན་པ་ རྣམས་ ནི་ ཉིན་ དང་ མཚན །། བསྒྲུབ་བྱ་ དམ་པ འི་ ཆོས་ མིན་ གཞན་ ཅི་ཞིག ༢༨ ། བསླབ་་་་་་ ཉེར་
དྲུག་པ་ རིག་བྱེད་ གཏམ་ ལ ས་ དྲངས་པ འི་ མཐའ་དག་ གཟུགས་ཅན ། སྦྱངས་ བི་ ཤྭ་ ཀརྨ ས་ བརྡར་བ འི་ བློ །།
སངཾས་ རྒྱསཾ་ ཡེཾ་ ཤེསཾ་ འོད་གསལ་ མི་སྦྱིན་སྐྱེས །། མཐའ་ ཀླས་ ཤེས་བྱ འི་ མཁའ་ ལ་ ལེགས་ རྒྱུ་ ཚེ །།
ལེགས་བཤད་ སྦྲང་རྩི འི་ རྒྱལ་མཚན་ རྩེ་དག ས་ དགོད ། ༢༩ ། ཁ་་་་་་ ཉེར་ བདུན་པ་ ཁྱད་པར་ བརྗོད་པ་ ལ ས་
མོད །། མཁཾའ་ མཉམ་ ཡིད་ཅན་ མི་ ཕྱེད་ དད་ གསུམ་ དཔཾལ །། བསྐྱེད་པ འི་ ཡོན་ཏན་ བཟཾང་པོ་ འདི་ ལ་ རྫོགས །
༣༠ ། ཕུནཾ་་་་་་ ཉེར་ བརྒྱད་པ་ དཔེ་ རྒྱན་ ལ ས་ མཚུངས་པ་ གསལ་བྱེད་ ཀྱི་ སྒྲ ས་ ཟིན་པ ། ཚོགཾས་ ཕན་བདེ
End of preview. Expand in Data Studio

Tibetan Normalisation - KenLM ACTib Training Data

A large-scale corpus of Standard Classical Tibetan text prepared specifically for training character-level KenLM n-gram language models for use in the PaganTibet normalisation pipeline. The dataset contains approximately 17.7 million lines of cleaned, line-split ACTib text in two versions: non-tokenised and tokenised (via a customised version of the Botok Tibetan tokeniser). These two files are the direct training corpora for pagantibet/5gram-kenLM_char and pagantibet/5gram-kenLM_char-tok respectively.

The KenLM models trained on this corpus serve as re-rankers for beam search candidates generated by the PaganTibet sequence-to-sequence normalisation models (tokenised S2S model and non-tokenised S2S model), selecting the hypothesis most consistent with fluent Standard Classical Tibetan.

This dataset is part of the PaganTibet project and accompanies the paper:

Meelen, M. & Griffiths, R.M. (2026) 'Historical Tibetan Normalisation: rule-based vs neural & n-gram LM methods for extremely low-resource languages' in Proceedings of the AI4CHIEF conference, Springer.

Please cite the paper and the code repository when using this dataset.


Dataset Overview

The dataset contains two plain text files, each representing the same underlying ACTib corpus (Annotated Corpus of Tibetan; >180 million words of Standard Classical Tibetan), available from Zenodo (Meelen & Roux 2020). Each file is prepared in a different form:

File Size Description
unsegACTib_lines_kenlm_20260103_220309.txt 2.16 GB Non-tokenised ACTib lines — used to train pagantibet/5gram-kenLM_char
unsegACTib-tok_lines_kenlm_20260103_220119.txt 2.32 GB Tokenised ACTib lines — used to train pagantibet/5gram-kenLM_char-tok

Note: the Hugging Face Dataset Viewer displays the dataset as a single train split — this is a technical default.

Both files are UTF-8 encoded plain text with one line per sequence. In the tokenised file, tokens are separated by spaces as produced by the customised Botok tokeniser (see Data_Preparation).

The ACTib does not contain natural linebreaks and includes non-Tibetan material (e.g. page numbers, section markers) that is unsuitable for language model training. Before use, the corpus was cleaned and split into artificial manuscript-length lines of varying length using the createTiblines.py script (see Data_Preparation). This produces lines of realistic, varied lengths that match the sequence units encountered during normalisation at inference time.


Usage

The training notebook KenLM_trainforNormalisation.ipynb walks through the full training process and can be run on Google Colab. The key steps are as follows:

Step 1 — Install KenLM

sudo apt-get install -y build-essential cmake libboost-all-dev \
    libboost-program-options-dev libboost-system-dev \
    libboost-thread-dev libboost-test-dev libeigen3-dev zlib1g-dev
git clone https://github.com/kpu/kenlm.git
cd kenlm && mkdir build && cd build
cmake .. && make -j 4

Step 2 — Convert to Space-Separated Characters

KenLM requires space-separated tokens. For character-level modelling, each character must be separated by a space. Apply this to whichever file you are using:

# For the non-tokenised file
with open("unsegACTib_lines_kenlm_20260103_220309.txt") as f_in, \
     open("actib_char.txt", "w") as f_out:
    for line in f_in:
        f_out.write(" ".join(line.strip()) + "\n")

# For the tokenised file
with open("unsegACTib-tok_lines_kenlm_20260103_220119.txt") as f_in, \
     open("actib_char_tok.txt", "w") as f_out:
    for line in f_in:
        f_out.write(" ".join(line.strip()) + "\n")

Step 3 — Train the 5-gram KenLM

Using the parameters from Meelen & Griffiths (2026):

# Non-tokenised model
./kenlm/build/bin/lmplz \
    -o 5 \
    --prune 0 1 1 2 2 \
    --discount_fallback \
    < actib_char.txt \
    > model_5gram_char.arpa

# Tokenised model
./kenlm/build/bin/lmplz \
    -o 5 \
    --prune 0 1 1 2 2 \
    --discount_fallback \
    < actib_char_tok.txt \
    > model_5gram_char_tok.arpa

Parameter notes:

  • -o 5 — 5-gram order
  • --prune 0 1 1 2 2 — pruning thresholds per n-gram order (unigrams kept, higher-order singletons pruned)
  • --discount_fallback — modified Kneser-Ney discounting with fallback

Training completes in under 5 minutes on Google Colab. Full parameter settings are reported in the Appendix of Meelen & Griffiths (2026).

Step 4 — (Optional) Convert to Binary

For faster loading with the compiled KenLM Python backend:

./kenlm/build/bin/build_binary model_5gram_char.arpa model_5gram_char.bin

Note: The pure Python ARPA backend used in the inference scripts requires .arpa format. The .bin format is only compatible with the compiled kenlm Python package.


Relationship to Other Resources

This corpus sits at the base of the KenLM training pipeline. The diagram below shows how it connects to the rest of the PaganTibet normalisation stack:

ACTib corpus (Zenodo)
       │
       ▼
createTiblines.py  ──→  unsegACTib_lines_kenlm_*.txt       (this dataset, non-tokenised file)
       │
       ▼
botokenise_src-tgt.py  ──→  unsegACTib-tok_lines_kenlm_*.txt  (this dataset, tokenised file)
       │
       ├──→  lmplz (KenLM)  ──→  5gram-kenLM_char        (non-tokenised KenLM model)
       └──→  lmplz (KenLM)  ──→  5gram-kenLM_char-tok    (tokenised KenLM model)
                                        │
                                        ▼
                              Used as beam search re-ranker
                              in normalisationS2S inference

Related Models and Resources

Resource Link
Non-tokenised KenLM model (trained on this data) pagantibet/5gram-kenLM_char
Tokenised KenLM model (trained on this data) pagantibet/5gram-kenLM_char-tok
Non-tokenised Seq2Seq model pagantibet/normalisationS2S-nontokenised
Tokenised Seq2Seq model pagantibet/normalisationS2S-tokenised
S2S training dataset pagantibet/normalisation-S2S-training
KenLM training notebook KenLM_trainforNormalisation.ipynb
Data preparation scripts & ReadMes github.com/pagantibet/normalisation/Data_Preparation
Inference scripts & ReadMe github.com/pagantibet/normalisation/Inference
ACTib corpus Zenodo (Meelen & Roux 2020)
PaganTibet project pagantibet.com

License

This dataset is released under CC BY-NC-SA 4.0. It may be used freely for non-commercial research and educational purposes, with attribution and under the same licence terms.


Funding

This work was partially funded by the European Union (ERC, Pagan Tibet, grant no. 101097364). Views and opinions expressed are those of the authors only and do not necessarily reflect those of the European Union or the European Research Council Executive Agency.

Downloads last month
29

Collection including pagantibet/Tibetan-KenLM-ACTibtrainingdata