이 논문은 대형 언어 모델(LLM)의 시맨틱 프라이버시 문제를 체계적으로 분석한 SoK(Systematization of Knowledge) 논문이다. LLM 생애주기 전반에 걸친 시맨틱 프라이버시 위험과 방어 기법을 다루며, 기존 연구의 한계를 지적한다. ppl-ai-file-upload.s3.amazonaws
논문 요약
제목 및 발행연도
SoK: Semantic Privacy in Large Language Models, 2025 (arXiv:2506.23603v2, 2025년 7월 16일). ppl-ai-file-upload.s3.amazonaws
연구배경
LLM은 훈련 데이터의 의미를 깊이 내재화하지만, 이는 verbatim memorization을 넘어 paraphrasing이나 추론을 통해 민감 정보를 노출하는 시맨틱 프라이버시 위험을 초래한다. 기존 데이터 프라이버시 연구는 시맨틱 수준의 추론 공격을 제대로 다루지 못했다. ppl-ai-file-upload.s3.amazonaws
연구목적
시맨틱 프라이버시를 형식적으로 정의하고, LLM 생애주기(input processing, pretraining, fine-tuning, alignment)를 중심으로 위험과 방어를 분석하며, 미래 연구 방향을 제시한다. ppl-ai-file-upload.s3.amazonaws
연구 방법
기존 설문 및 공격/방어 연구를 검토하여 생애주기 프레임워크를 제안하고, 멤버십 추론, 속성 추론, 모델 inversion, 백도어 공격 등의 택소노미를 구축. DP, edge computing, unlearning 등의 방어 한계를 평가. ppl-ai-file-upload.s3.amazonaws
연구결과
시맨틱 프라이버시는 데이터 프라이버시와 달리 잠재적 추론을 보호해야 하며, 기존 방어(DP 등)는 단편적이다. 다중모달 입력 보호, 시맨틱 누출 정량화 등의 도전 과제 제시. ppl-ai-file-upload.s3.amazonaws
연구의 기여
시맨틱 프라이버시의 첫 체계적 SoK로, lifecycle 프레임워크와 택소노미 제공. 기존 설문의 갭 분석을 통해 향후 quantifiable, modality-aware 방어 연구 로드맵 제시. ppl-ai-file-upload.s3.amazonaws
인용 논문 목록 및 인용 문구
논문은 약 50개 논문을 인용하며, REFERENCES 섹션에 나열되어 있다. 주요 인용 문구(본문 내 직접 인용 또는 참조)를 추출하여 테이블로 정리. 모든 인용은 에서 추출. ppl-ai-file-upload.s3.amazonaws
| 번호 | 논문 정보 (저자, 연도, 제목 요약) | 인용 문구 예시 |
|---|---|---|
| 1 | Aguilera-Martínez et al., 2025, LLM Security Vulnerabilities | 모델 inversion 공격 설명 시 참조. ppl-ai-file-upload.s3.amazonaws |
| 2 | Chang et al., 2024, A survey on evaluation of large language models | Fine-tuning 단계 설명. ppl-ai-file-upload.s3.amazonaws |
| 4 | Das et al., 2024, Security and privacy challenges of LLMs | 기존 설문 갭 분석: "Existing works 4, 11, 14...". ppl-ai-file-upload.s3.amazonaws |
| 5 | Das et al., 2025, Security and privacy challenges of LLMs | DP 기술 언급: "anonymization, encryption, and DP 5". ppl-ai-file-upload.s3.amazonaws |
| 8 | Farquhar et al., 2024, Detecting hallucinations using semantic entropy | LLM 일반화 및 프라이버시 위험 소개: "stylistic reconstructions 8". ppl-ai-file-upload.s3.amazonaws |
| 11 | Gan et al., 2024, Navigating risks in LLM-based agents | 설문 비교 테이블 및 갭 분석. ppl-ai-file-upload.s3.amazonaws |
| 14 | He et al., 2024, Security and privacy of LLM agent | 설문 갭: "He et al. 14 focused on agent-based vulnerabilities". ppl-ai-file-upload.s3.amazonaws |
| 15 | He et al., 2025, Label-only membership inference | MIA 섹션: "He et al. 15 propose a label-only MIA". ppl-ai-file-upload.s3.amazonaws |
| 23 | Li et al., 2024, LLM-PBE Assessing data privacy | Inference-related threats 언급. ppl-ai-file-upload.s3.amazonaws |
| 24 | Liu et al., 2025, Compromising LLM with contextual backdoor | String-matching detection 회피: "evade string-matching based detection 24". ppl-ai-file-upload.s3.amazonaws |
| 25 | Mai et al., 2023, Split-and-denoise with LDP | DP 및 split learning 테이블 및 섹션. ppl-ai-file-upload.s3.amazonaws |
| 28 | Nazi & Peng, 2024, LLMs in healthcare | LLM 일반화: "strong generalization capabilities 28". ppl-ai-file-upload.s3.amazonaws |
| 29 | Neel & Chang, 2023, Privacy issues in LLMs | 설문 갭 및 DP 한계. ppl-ai-file-upload.s3.amazonaws |
| 37 | Wang et al., 2023, Pre-trained LMs in biomedical domain | Pretraining 설명: "transformer layers... 37". ppl-ai-file-upload.s3.amazonaws |
| 41 | Yan et al., 2024, Protecting data privacy of LLMs | 설문 갭 분석. ppl-ai-file-upload.s3.amazonaws |
| 46 | Yu et al., 2025, UniErase Unlearning | Unlearning 섹션 및 도전 과제. ppl-ai-file-upload.s3.amazonaws |
| 50 | Zheng et al., 2024, InputSnatch timing attack | 속성 추론 공격 예시. ppl-ai-file-upload.s3.amazonaws |
'지식창고 > 논문리뷰' 카테고리의 다른 글
| [논문 리뷰] SoK: Semantic Privacy in Large Language Models (0) | 2025.12.06 |
|---|---|
| (논문 리뷰) 검색 증강형 대규모 언어 모델을 통한 금융 감정 분석 강화 (2) | 2025.09.27 |
| 논문리뷰 Privacy and Synthetic Datasets (0) | 2025.09.12 |
| 논문연구 - LLM에서 로컬라이제이션 방법이 실제로 기억된 데이터를 현지화합니까? 두 가지 벤치마크 이야기 (0) | 2025.05.12 |