## 연구 요약: VLM의 2D Heuristic 의존성 분석 ### 1. 연구 배경 및 가설 **2D Height-Depth Entanglement Heuristic:** - 이미지에서 **위쪽 (y 작음)** → 카메라에서 **멀다** - 이미지에서 **아래쪽 (y 큼)** → 카메라에서 **가깝다** ### 분류 기준 ```python # BBox 중심 y좌표 계산 center_y = bbox[1] + bbox[3] / 2 # FAR 질문 (가장 먼 물체는?) if GT_y < other_objects_avg_y: # 정답이 위쪽 → Consistent if GT_y > other_objects_avg_y: # 정답이 아래쪽 → Counter # CLOSE 질문 (가장 가까운 물체는?) if GT_y > other_objects_avg_y: # 정답이 아래쪽 → Consistent if GT_y < other_objects_avg_y: # 정답이 위쪽 → Counter ``` **가설:** VLM이 FAR/CLOSE 질문에서 실제 3D 공간을 이해하는지, 아니면 2D heuristic에 의존하는지 검증 --- ### 2. 실험 설계 **EmbSpatial-Bench FAR/CLOSE 샘플 분류:** | 분류 | 정의 | 샘플 수 | | --- | --- | --- | | **Consistent** | GT 정답이 2D heuristic과 일치 | 987 (81.8%) | | **Counter** | GT 정답이 2D heuristic과 반대 | 132 (10.9%) | | **Ambiguous** | Y좌표 차이가 threshold 미만 | 87 (7.2%) | **핵심 지표:** - **Accuracy Gap** = Consistent 정확도 - Counter 정확도 - Gap이 클수록 → 2D heuristic 의존도 높음 - Counter 정확도가 높을수록 → 진정한 3D 이해력 --- ### 3. 실험 결과 #### 3.1 Model Comparison (Counter vs Consistent Accuracy) | Model | Consistent | Counter | Gap | | --- | --- | --- | --- | | **Molmo-7B (vanilla)** | 63.4% | 34.8% | +28.6%p | | Molmo-7B (80k) | 60.3% | 29.5% | +30.7%p | | Molmo-7B (400k) | 62.5% | 27.3% | +35.2%p | | Molmo-7B (800k) | 64.8% | 34.8% | +30.0%p | | Molmo-7B (2m) | 64.9% | 40.2% | +24.8%p | | **NVILA-Lite-2B (vanilla)** | 15.2% | 8.3% | +6.9%p | | NVILA-Lite-2B (80k) | 57.2% | 15.9% | +41.3%p | | NVILA-Lite-2B (400k) | 60.7% | 34.1% | +26.6%p | | NVILA-Lite-2B (800k) | 62.7% | 38.6% | +24.1%p | | NVILA-Lite-2B (2m) | 60.3% | 40.9% | +19.4%p | | **RoboRefer-2B-SFT** | 86.8% | 59.8% | +27.0%p | | **Qwen2.5-VL-3B (vanilla)** | 54.4% | 32.6% | +21.8%p | | Qwen2.5-VL-3B (80k) | 50.6% | 30.3% | +20.3%p | | Qwen2.5-VL-3B (400k) | 52.4% | 27.3% | +25.1%p | | Qwen2.5-VL-3B (800k) | 55.6% | 26.5% | +29.1%p | | Qwen2.5-VL-3B (2m) | 60.5% | 24.2% | +36.2%p | #### 3.2 모델별 분석 **Molmo-7B:** Fine-tuning 초기(80k~400k)에 Counter 정확도가 오히려 하락(34.8% → 27.3%)했다가 데이터 증가와 함께 회복. 2m에서 Counter 40.2%, Gap 24.8%p로 가장 좋은 성능. Consistent 정확도는 전 구간에서 안정적(60~65%). **NVILA-Lite-2B:** Vanilla 모델의 전체 성능이 매우 낮음(15.2%/8.3%). Fine-tuning으로 급격한 성능 향상. 80k에서 Counter가 15.9%로 낮고 Gap이 41.3%p로 최대치지만, 데이터 증가에 따라 Counter가 꾸준히 상승하여 2m에서 40.9%, Gap 19.4%p로 전 모델 중 가장 낮은 Gap 달성. **RoboRefer-2B-SFT:** Counter 59.8%로 전 모델 중 최고. Consistent도 86.8%로 압도적. Gap은 27.0%p로 여전히 존재하나, 절대적인 Counter 정확도가 가장 높아 3D 이해 능력이 가장 우수. **Qwen2.5-VL-3B:** Fine-tuning이 역효과. 데이터가 늘수록 Counter 정확도가 하락(32.6% → 24.2%), Gap은 확대(21.8%p → 36.2%p). Consistent 정확도만 상승(54.4% → 60.5%)하여 2D heuristic 의존성이 오히려 강화됨. --- ### 4. Prediction Bias 분석 (Sanity Check) > 분석 코드: `experiments/analyze_answer_bias.py` > 결과 파일: `experiments/answer_bias_results.txt` #### 4.1 GT 정답 분포 GT 정답은 A/B/C/D 전체에 걸쳐 균형적 (Std ~1.0%p). Counter 샘플에서도 비교적 균형적 (A:25.8%, B:22.0%, C:23.5%, D:28.8%, Std 2.57%p). #### 4.2 모델 Prediction Bias (전체 문제, ALL subset) | Model | A% | B% | C% | D% | Pred Std | Pred Max | | --- | --- | --- | --- | --- | --- | --- | | **Molmo-7B (vanilla)** | 30.3 | 28.1 | 21.9 | 19.7 | 4.3%p | A(30.3%) | | Molmo-7B (80k) | 28.0 | 24.1 | 28.4 | 19.5 | 3.6%p | C(28.4%) | | Molmo-7B (400k) | 23.7 | 23.6 | 26.6 | 26.1 | 1.4%p | C(26.6%) | | Molmo-7B (800k) | 19.9 | 21.1 | 27.0 | 32.0 | 4.9%p | D(32.0%) | | Molmo-7B (2m) | 23.6 | 22.6 | 22.2 | 31.6 | 3.8%p | D(31.6%) | | **NVILA-Lite-2B (vanilla)** | 32.0 | 26.3 | 19.1 | 22.6 | 4.8%p | A(32.0%) | | NVILA-Lite-2B (80k) | 25.5 | 27.7 | 21.6 | 25.1 | 2.2%p | B(27.7%) | | NVILA-Lite-2B (400k) | 24.4 | 23.3 | 24.9 | 27.4 | 1.5%p | D(27.4%) | | NVILA-Lite-2B (800k) | 25.6 | 21.8 | 24.5 | 28.1 | 2.2%p | D(28.1%) | | NVILA-Lite-2B (2m) | 27.7 | 21.5 | 24.5 | 26.3 | 2.3%p | A(27.7%) | | **RoboRefer-2B-SFT** | 27.3 | 25.8 | 23.4 | 23.4 | 1.6%p | A(27.3%) | | **Qwen2.5-VL-3B (vanilla)** | 18.7 | 23.7 | 25.8 | 31.8 | 4.7%p | D(31.8%) | | Qwen2.5-VL-3B (80k) | 19.3 | 24.3 | 26.8 | 29.6 | 3.8%p | D(29.6%) | | Qwen2.5-VL-3B (400k) | 20.2 | 22.7 | 26.5 | 30.6 | 3.9%p | D(30.6%) | | Qwen2.5-VL-3B (800k) | 22.4 | 22.3 | 25.7 | 29.6 | 3.0%p | D(29.6%) | | Qwen2.5-VL-3B (2m) | 24.5 | 22.8 | 26.4 | 26.3 | 1.5%p | C(26.4%) | **Prediction Bias 패턴:** - **Molmo-7B**: Vanilla은 A bias → fine-tuning 후 D bias로 전환. 800k에서 D bias가 가장 심함 (32.0%, Std 4.9%p) - **NVILA-Lite-2B**: Vanilla은 A bias → fine-tuning 후 점차 균형화. 400k부터 Std < 2.5%p로 비교적 균형 - **RoboRefer-2B-SFT**: 전 모델 중 가장 균형적 (Std 1.6%p) - **Qwen2.5-VL-3B**: 전 구간에서 D bias 존재. 2m에서 가장 균형적 (Std 1.5%p) #### 4.3 FAR+CLOSE Subset에서의 Prediction Bias FAR+CLOSE 문제에 한정한 bias는 전체(ALL)와 다를 수 있음: | Model | ALL Pred Std | FAR+CLOSE Pred Std | FAR+CLOSE Pred Max | | --- | --- | --- | --- | | Molmo-7B (vanilla) | 4.3%p | 1.9%p | A(27.3%) | | Molmo-7B (800k) | 4.9%p | **9.8%p** | **D(40.8%)** | | Molmo-7B (2m) | 3.8%p | **6.2%p** | **D(35.4%)** | | NVILA-Lite-2B (80k) | 2.2%p | 4.2%p | A(30.1%) | | NVILA-Lite-2B (800k) | 2.2%p | 4.3%p | A(31.6%) | | NVILA-Lite-2B (2m) | 2.3%p | 4.2%p | A(31.4%) | | RoboRefer-2B-SFT | 1.6%p | 2.7%p | A(29.4%) | | Qwen2.5-VL-3B (vanilla) | 4.7%p | 5.8%p | D(34.2%) | | Qwen2.5-VL-3B (2m) | 1.5%p | 2.8%p | D(27.4%) | **주요 발견**: Molmo-7B (800k)는 전체 문제에서 Pred Std 4.9%p이지만, FAR+CLOSE에서는 **9.8%p** (D=40.8%)로 급격히 악화. FAR만 보면 **11.7%p** (D=44.4%). 이는 FAR/CLOSE 문제에서 D를 과도하게 선택하는 경향이 있음을 보여줌. #### 4.4 Counter 정확도에 대한 Bias 영향 Counter 샘플에서 GT 위치별 정확도를 분석하여 prediction bias가 Counter 정확도를 인위적으로 높이는지 검증: | Model | Counter Acc | Pos Std | Min Pos Acc | 해석 | | --- | --- | --- | --- | --- | | Molmo-7B (800k) | 34.8% | 22.1%p | A=11.8% | D bias로 Counter Acc 부풀려짐 | | Molmo-7B (2m) | 40.2% | 6.7%p | A=32.4% | 상대적으로 고른 분포 | | NVILA-Lite-2B (800k) | 38.6% | 2.1%p | C=35.5% | 매우 고른 분포 - 진정한 3D 이해 | | NVILA-Lite-2B (2m) | 40.9% | - | - | NVILA 계열 최고 Counter | | RoboRefer-2B-SFT | 59.8% | 11.0%p | D=44.7% | 최고 Min Pos Acc - 가장 robust | | Qwen2.5-VL-3B (2m) | 24.2% | 4.8%p | A=20.6% | 균형잡힌 bias지만 2D heuristic 의존 | - **Pos Std**: Counter 샘플에서 GT 위치(A/B/C/D)별 정확도의 표준편차. 낮을수록 bias에 덜 의존 - **Min Pos Acc**: Counter GT 위치별 정확도 중 최저값. 높을수록 robust --- ### 5. 핵심 결론 1. **모든 모델이 2D heuristic에 의존**: Counter vs Consistent Gap이 항상 양수 (+6.9%p ~ +41.3%p) 2. **Fine-tuning 효과는 모델마다 상이**: - NVILA: 데이터 증가에 따라 Counter 정확도 꾸준히 상승, Gap 감소 → 3D 이해 개선 - Molmo: 초기 하락 후 2m에서 회복, 하지만 D bias가 결과를 부분적으로 부풀림 - Qwen: Fine-tuning이 오히려 2D heuristic 의존성 강화 → Counter 정확도 하락, Gap 확대 3. **RoboRefer-2B-SFT가 가장 우수**: Counter 59.8%, Min Pos Acc 44.7%로 가장 robust한 3D 이해 4. **Prediction bias 주의 필요**: Molmo-7B (800k)의 Counter 정확도 34.8%는 D bias (32.0%)에 의해 부풀려진 결과 (GT=D에서 68.4% vs GT=A에서 11.8%)