Dataset Preview
Duplicate
The full dataset viewer is not available (click to read why). Only showing a preview of the rows.
The dataset generation failed
Error code:   DatasetGenerationError
Exception:    CastError
Message:      Couldn't cast
id: int64
row_id: string
filename: string
has_table: int64
has_list: int64
header: string
place: string
section: string
predicted_section: string
diplomatiki: string
titlos: string
-- schema metadata --
pandas: '{"index_columns": [], "column_indexes": [], "columns": [{"name":' + 1336
to
{'filename': Value(dtype='string', id=None), 'title': Value(dtype='string', id=None), 'department': Value(dtype='string', id=None), 'submission_date': Value(dtype='string', id=None), 'year': Value(dtype='string', id=None), 'author': Value(dtype='string', id=None), 'supervisors': Value(dtype='string', id=None), 'language': Value(dtype='string', id=None), 'abstract': Value(dtype='string', id=None), 'has_index': Value(dtype='string', id=None), 'index_pages': Value(dtype='string', id=None), 'has_illustrations': Value(dtype='string', id=None), 'page_count': Value(dtype='string', id=None), 'permanent_url': Value(dtype='string', id=None)}
because column names don't match
Traceback:    Traceback (most recent call last):
                File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 1387, in compute_config_parquet_and_info_response
                  fill_builder_info(builder, hf_endpoint=hf_endpoint, hf_token=hf_token, validate=validate)
                File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 573, in fill_builder_info
                  ) = retry_validate_get_features_num_examples_size_and_compression_ratio(
                File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 492, in retry_validate_get_features_num_examples_size_and_compression_ratio
                  validate(pf)
                File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 530, in validate
                  raise TooBigRowGroupsError(
              worker.job_runners.config.parquet_and_info.TooBigRowGroupsError: Parquet file has too big row groups. First row group has 312620988 which exceeds the limit of 300000000
              
              During handling of the above exception, another exception occurred:
              
              Traceback (most recent call last):
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1855, in _prepare_split_single
                  for _, table in generator:
                File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 687, in wrapped
                  for item in generator(*args, **kwargs):
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/packaged_modules/parquet/parquet.py", line 106, in _generate_tables
                  yield f"{file_idx}_{batch_idx}", self._cast_table(pa_table)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/packaged_modules/parquet/parquet.py", line 73, in _cast_table
                  pa_table = table_cast(pa_table, self.info.features.arrow_schema)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2293, in table_cast
                  return cast_table_to_schema(table, schema)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2241, in cast_table_to_schema
                  raise CastError(
              datasets.table.CastError: Couldn't cast
              id: int64
              row_id: string
              filename: string
              has_table: int64
              has_list: int64
              header: string
              place: string
              section: string
              predicted_section: string
              diplomatiki: string
              titlos: string
              -- schema metadata --
              pandas: '{"index_columns": [], "column_indexes": [], "columns": [{"name":' + 1336
              to
              {'filename': Value(dtype='string', id=None), 'title': Value(dtype='string', id=None), 'department': Value(dtype='string', id=None), 'submission_date': Value(dtype='string', id=None), 'year': Value(dtype='string', id=None), 'author': Value(dtype='string', id=None), 'supervisors': Value(dtype='string', id=None), 'language': Value(dtype='string', id=None), 'abstract': Value(dtype='string', id=None), 'has_index': Value(dtype='string', id=None), 'index_pages': Value(dtype='string', id=None), 'has_illustrations': Value(dtype='string', id=None), 'page_count': Value(dtype='string', id=None), 'permanent_url': Value(dtype='string', id=None)}
              because column names don't match
              
              The above exception was the direct cause of the following exception:
              
              Traceback (most recent call last):
                File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 1410, in compute_config_parquet_and_info_response
                  parquet_operations, partial, estimated_dataset_info = stream_convert_to_parquet(
                File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 989, in stream_convert_to_parquet
                  builder._prepare_split(
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1742, in _prepare_split
                  for job_id, done, content in self._prepare_split_single(
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1898, in _prepare_split_single
                  raise DatasetGenerationError("An error occurred while generating the dataset") from e
              datasets.exceptions.DatasetGenerationError: An error occurred while generating the dataset

Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.

filename
string
title
string
department
string
submission_date
string
year
string
author
string
supervisors
string
language
string
abstract
string
has_index
string
index_pages
string
has_illustrations
string
page_count
string
permanent_url
string
paper_10
Αγγειογενετικοί παράγοντες ...
Τομέας Υγείας - Μητέρας - ΠαιδιούΒιβλιοθήκη Επιστημών Υγείας
2013-09-03
2013.0
Παπαποστόλου Θαλής-Κωνσταντίνος
...
...
False
0
True
89
https://pergamos.lib.uoa.gr/uoa/dl/object/1305582
paper_10004
...
Κατεύθυνση Δίκαιο της Ευρωπαϊκής ΈνωσηςΒιβλιοθήκη Νομικής Σχολής
2017-03-06
2017.0
Πανάγος Κωνσταντίνος
...
Αγγλικά, Ελληνικά
...
True
2
False
88
https://pergamos.lib.uoa.gr/uoa/dl/object/1332478
paper_10005
...
ΠΜΣ Διεθνείς και Ευρωπαϊκές ΣπουδέςΒιβλιοθήκη Πολιτικής Επιστήμης και Δημόσιας Διοίκησης - Επικοινωνίας και Μέσων Μαζικής Ενημέρωσης - Τουρκικών Σπουδών και Σύγχρονων Ασιατικών Σπουδών - Κοινωνιολογίας
2016-12-15
2016.0
Τοπογλίδης Γεώργιος-Εμμανουήλ
...
Ελληνικά
...
False
0
False
67
https://pergamos.lib.uoa.gr/uoa/dl/object/1332481
paper_10006
Η Σεισμο-Η...
Κατεύθυνση Στρατηγικές Διαχείρισης Καταστροφών και ΚρίσεωνΒιβλιοθήκη Σχολής Θετικών Επιστημών
2017-03-06
2017.0
Μανουσάκη Μαρία
...
Ελληνικά
...
True
2
True
154
https://pergamos.lib.uoa.gr/uoa/dl/object/1332489
paper_10007
...
ΠΜΣ Διεθνείς και Ευρωπαϊκές ΣπουδέςΒιβλιοθήκη Πολιτικής Επιστήμης και Δημόσιας Διοίκησης - Επικοινωνίας και Μέσων Μαζικής Ενημέρωσης - Τουρκικών Σπουδών και Σύγχρονων Ασιατικών Σπουδών - Κοινωνιολογίας
2016-12-16
2016.0
Κωνσταντινίδου Δανάη
...
Ελληνικά
...
False
0
False
51
https://pergamos.lib.uoa.gr/uoa/dl/object/1332491
paper_10008
...
ΠΜΣ Διεθνείς και Ευρωπαϊκές ΣπουδέςΒιβλιοθήκη Πολιτικής Επιστήμης και Δημόσιας Διοίκησης - Επικοινωνίας και Μέσων Μαζικής Ενημέρωσης - Τουρκικών Σπουδών και Σύγχρονων Ασιατικών Σπουδών - Κοινωνιολογίας
2016-12-15
2016.0
Γεωργούλη Παρασκευή
...
Ελληνικά
...
False
0
False
47
https://pergamos.lib.uoa.gr/uoa/dl/object/1332495
paper_10009
...
ΠΜΣ Διεθνείς και Ευρωπαϊκές ΣπουδέςΒιβλιοθήκη Πολιτικής Επιστήμης και Δημόσιας Διοίκησης - Επικοινωνίας και Μέσων Μαζικής Ενημέρωσης - Τουρκικών Σπουδών και Σύγχρονων Ασιατικών Σπουδών - Κοινωνιολογίας
2016-12-16
2016.0
Γιαλαμπίδης Σπυρίδων
...
Ελληνικά
...
False
0
False
35
https://pergamos.lib.uoa.gr/uoa/dl/object/1332499
paper_1001
...
Τομέας ΚλινικοεργαστηριακόςΒιβλιοθήκη Επιστημών Υγείας
2013-04-03
2013.0
Γεωργακάκος Βασίλειος
...
...
False
0
True
174
https://pergamos.lib.uoa.gr/uoa/dl/object/1306875
paper_10010
" (...TRUNCATED)
" ΠΜΣ Διεθνείς και Ευρω(...TRUNCATED)
2016-12-16
2016.0
Πορετσάνος Γεώργιος
" (...TRUNCATED)
Ελληνικά
" (...TRUNCATED)
False
0
True
48
https://pergamos.lib.uoa.gr/uoa/dl/object/1332503
paper_10014
" (...TRUNCATED)
" (...TRUNCATED)
2017-03-06
2017.0
Καβελάρης Ιωάννης
" (...TRUNCATED)
Ελληνικά
" (...TRUNCATED)
True
2
True
81
https://pergamos.lib.uoa.gr/uoa/dl/object/1332518
End of preview.

Πληροφορίες για τα δεδομένα:

Το Apothetirio_Pergamos είναι μια συλλογή ελληνικών ακαδημαϊκών διατριβών από διάφορα πανεπιστήμια, συγκεντρωμένες στο αποθετήριο Πέργαμος (https://pergamos.lib.uoa.gr/uoa/dl/frontend/el/browse/1058836?p.tpl=list) . Περιλαμβάνει τη Γκρίζα Βιβλιογραφία, δηλαδή ακαδημαϊκές και επιστημονικές εργασίες εργασίες σε ευρύ φάσμα επιστημονικών πεδίων που δεν εκδίδονται επίσημα από εκδοτικούς οίκους, αλλά έχουν επιστημονική αξία. Το dataset αποκτήθηκε τον Απρίλιο του 2024 και μέσα από μια σειρά διαδικασιών μηχανικής μάθησης έχει καθαριστεί και επισημειωθεί αυτόματα όσον αφορά δομικά μέρη του κειμένου: περιεχόμενα , βιβλιογραφία , παράρτημα κλπ.

🔍 Χαρακτηριστικά του Dataset:

Γλώσσα: Ελληνικά

Μορφή: Κείμενα εργασιών & μεταδεδομένα

Στήλες Μεταδεδομένων: predicted_section: ε.σ = εισαγωγικό σημείωμα, β= βιβλιογραφία, π=περιεχόμενα, κ=κείμενο . Section: βασικό κείμενο.

🛠 Χρήσεις:

Εξαγωγή θεματικών τάσεων μέσω NLP

Εκπαίδευση μοντέλων για αυτόματη περίληψη και ταξινόμηση

Εκπαίδευση γλωσσικών μοντέλων

📊 Στατιστικά Dataset:

Total tokens: 839244566
Size: 2.25Gb
Words Count: 466263068

Δομή Dataset

Το αποθετήριο περιλαμβάνει ένα αρχείο Parquet που αποθηκεύει εγγραφές διπλωματικών/διδακτορικών εργασιών σε μορφή πίνακα.

Κάθε γραμμή αντιστοιχεί σε μία εργασία μαζί με τα βιβλιογραφικά μεταδεδομένα της.

Στήλη Περιγραφή
filename Αναγνωριστικό ή όνομα αρχείου της εργασίας
title Τίτλος εργασίας
department Τμήμα ή ακαδημαϊκή μονάδα
submission_date Ημερομηνία υποβολής
year Έτος υποβολής/δημοσίευσης
author Όνομα/ονόματα συγγραφέα
supervisors Επιβλέπων/Επιβλέποντες καθηγητές
language Γλώσσα εργασίας
abstract Περίληψη εργασίας
has_index Αν το έγγραφο περιέχει ευρετήριο/πίνακα περιεχομένων
index_pages Σελίδες που αντιστοιχούν στο ευρετήριο
has_illustrations Αν η εργασία περιέχει σχήματα/εικόνες
page_count Συνολικός αριθμός σελίδων
permanent_url Μόνιμος σύνδεσμος της εγγραφής

📥 Δήλωση Πνευματικών Δικαιωμάτων:

Τα δεδομένα προέρχονται από την ιστοσελίδα του Ιδρυματικού Αποθετηρίου / Ψηφιακής Βιβλιοθήκης του ΕΚΠΑ που διατίθενται στο Πέργαμος. Η χρήση τους γίνεται για ερευνητικούς και επιστημονικούς σκοπούς, σύμφωνα με τους όρους διάθεσης Creative Commons Αναφορά Δημιουργού-Μη Εμπορική Χρήση 4.0 Διεθνές (CC BY-NC 4.0)

Για ανατροφοδότηση επικοινωνήστε: glossapi.team@eellak.gr

Dataset Info:

The Apothetirio_Pergamos is a collection of Greek academic theses from various universities, gathered in the Pergamos repository (https://pergamos.lib.uoa.gr/uoa/dl/frontend/el/browse/1058836?p.tpl=list). It includes Gray Literature, meaning academic and scientific papers across a broad range of fields that are not officially published by academic publishers but still hold scientific value. The dataset was acquired in April 2024 and has undergone a series of machine learning processes to be automatically cleaned and annotated regarding structural components of the text, such as table of contents, bibliography, appendix, etc.

🔍 Dataset Features:

Language: Greek

Format: Academic texts & metadata

Metadata Columns :predicted_section: ε.σ = introductory note, β = bibliography, π = table of contents, κ = text. Section: main text.

🛠 Uses:

Extracting thematic trends using NLP

Training models for automatic summarization and classification

Training language models

📊 Dataset Statistics:

Total tokens: 839244566
Size: 2.25Gb
Words Count: 466263068

Dataset Structure

The repository contains a single Parquet file storing thesis records in tabular form.

Each row corresponds to one thesis document and its bibliographic metadata.

Column Description
filename Identifier or filename of the thesis document
title Thesis title
department Department or academic unit
submission_date Date of submission
year Year of submission/publication
author Author name(s)
supervisors Supervisor or advisor name(s)
language Language of the thesis
abstract Thesis abstract
has_index Whether the document contains an index/table of contents
index_pages Pages corresponding to the index/table of contents
has_illustrations Whether the thesis includes figures/illustrations
page_count Total number of pages
permanent_url Persistent URL of the thesis record

📥Copyright Notice:

The data originates from the Institutional Repository / Digital Library of NKUA (National and Kapodistrian University of Athens) and is available in Πέργαμος. Its usage is strictly for research and scientific purposes, according to the terms of the Creative Commons Attribution-NonCommercial 4.0 International (CC BY-NC 4.0) License.

For feedback contact: glossapi.team@eellak.gr

Downloads last month
18