Dataset Viewer
Auto-converted to Parquet Duplicate
Search is not available for this dataset
The dataset viewer is not available for this split.
Server error while post-processing the rows. Please report the issue.
Error code:   RowsPostProcessingError

Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.

AVA-AVD — test split (audio-visual speaker diarization in the wild)

Copie du split test d'AVA-AVD (Xu et al., ACM MM 2022), un corpus de diarisation dans des conditions "in the wild" construit sur AVA Active Speaker.

Chaque clip (~5 min) est extrait des vidéos AVA à des offsets précis définis par le repo officiel, puis l'audio est re-synchronisé : les timestamps des RTTMs ont été recalculés en temps clip-local (soustrait min_start du RTTM d'origine) pour être directement utilisables avec le WAV.

Contenu

  • 54 clips audio (provenant de 18 vidéos AVA uniques)
  • Audio : WAV 16 kHz mono (extrait via ffmpeg, re-synchro clip-local)
  • Annotations : RTTM standard pyannote, timestamps clip-local
  • Langue : principalement anglais (multilingue selon vidéos AVA sources)
  • Licence : CC-BY-4.0 (hérité d'AVA / AVA-AVD upstream)

Structure

dia-AvaAvd-test/
├── README.md
├── audio/test/<clip_id>.wav     # 54
└── rttm/test/<clip_id>.rttm     # 54

Le clip_id suit le format <ava_video_id>_c_NN (ex: 1j20qq1JyX4_c_01). Le WAV et le RTTM partagent la même base temporelle (t=0 début du clip).

Chaque ligne RTTM :

SPEAKER <clip_id> 1 <start_sec> <duration_sec> <NA> <NA> <speaker_id> <NA> <NA>

Split upstream

  • train.list : 242 clips (non fourni ici — train seulement)
  • val.list : 53 clips (non fourni ici)
  • test.list : 53 clips ← c'est ce qu'on trouve dans ce repo

Le split test.list officiel est listé dans https://github.com/showlab/AVA-AVD/blob/main/dataset/split/test.list.

Utilisation

from pathlib import Path
from huggingface_hub import snapshot_download
from pyannote.audio import Pipeline
from pyannote.metrics.diarization import DiarizationErrorRate
from pyannote.database.util import load_rttm

root = snapshot_download("ggfox00000/dia-AvaAvd-test", repo_type="dataset")
pipe = Pipeline.from_pretrained("pyannote/speaker-diarization-3.1")

metric = DiarizationErrorRate()
audio_dir = Path(root) / "audio/test"
rttm_dir  = Path(root) / "rttm/test"
for wav in sorted(audio_dir.glob("*.wav")):
    hyp = pipe(str(wav))
    ref = next(iter(load_rttm(str(rttm_dir / f"{wav.stem}.rttm")).values()))
    metric(ref, hyp)
print(f"DER: {abs(metric):.3f}")

Source

Licence

CC-BY-4.0 — hérité de la distribution AVA-AVD upstream et d'AVA.

Citation

@inproceedings{xu2022ava,
  author    = {Xu, Eric Zhongcong and Song, Zeyang and Tsutsui, Satoshi and Feng, Chao and Ye, Mang and Shou, Mike Zheng},
  title     = {AVA-AVD: Audio-Visual Speaker Diarization in the Wild},
  booktitle = {Proceedings of the 30th ACM International Conference on Multimedia},
  pages     = {3838--3847},
  year      = {2022},
}
Downloads last month
91

Paper for ggfox00000/dia-AvaAvd-test