지식창고/논문리뷰

논문연구 - SoK-Semantic-Privacy-in-Large-Language-Models-2506

오이시이 2026. 2. 24. 21:07
반응형

이 논문은 대형 언어 모델(LLM)의 시맨틱 프라이버시 문제를 체계적으로 분석한 SoK(Systematization of Knowledge) 논문이다. LLM 생애주기 전반에 걸친 시맨틱 프라이버시 위험과 방어 기법을 다루며, 기존 연구의 한계를 지적한다. ppl-ai-file-upload.s3.amazonaws

논문 요약

제목 및 발행연도
SoK: Semantic Privacy in Large Language Models, 2025 (arXiv:2506.23603v2, 2025년 7월 16일). ppl-ai-file-upload.s3.amazonaws

연구배경
LLM은 훈련 데이터의 의미를 깊이 내재화하지만, 이는 verbatim memorization을 넘어 paraphrasing이나 추론을 통해 민감 정보를 노출하는 시맨틱 프라이버시 위험을 초래한다. 기존 데이터 프라이버시 연구는 시맨틱 수준의 추론 공격을 제대로 다루지 못했다. ppl-ai-file-upload.s3.amazonaws

연구목적
시맨틱 프라이버시를 형식적으로 정의하고, LLM 생애주기(input processing, pretraining, fine-tuning, alignment)를 중심으로 위험과 방어를 분석하며, 미래 연구 방향을 제시한다. ppl-ai-file-upload.s3.amazonaws

연구 방법
기존 설문 및 공격/방어 연구를 검토하여 생애주기 프레임워크를 제안하고, 멤버십 추론, 속성 추론, 모델 inversion, 백도어 공격 등의 택소노미를 구축. DP, edge computing, unlearning 등의 방어 한계를 평가. ppl-ai-file-upload.s3.amazonaws

연구결과
시맨틱 프라이버시는 데이터 프라이버시와 달리 잠재적 추론을 보호해야 하며, 기존 방어(DP 등)는 단편적이다. 다중모달 입력 보호, 시맨틱 누출 정량화 등의 도전 과제 제시. ppl-ai-file-upload.s3.amazonaws

연구의 기여
시맨틱 프라이버시의 첫 체계적 SoK로, lifecycle 프레임워크와 택소노미 제공. 기존 설문의 갭 분석을 통해 향후 quantifiable, modality-aware 방어 연구 로드맵 제시. ppl-ai-file-upload.s3.amazonaws

인용 논문 목록 및 인용 문구

논문은 약 50개 논문을 인용하며, REFERENCES 섹션에 나열되어 있다. 주요 인용 문구(본문 내 직접 인용 또는 참조)를 추출하여 테이블로 정리. 모든 인용은 에서 추출. ppl-ai-file-upload.s3.amazonaws

번호 논문 정보 (저자, 연도, 제목 요약) 인용 문구 예시
1 Aguilera-Martínez et al., 2025, LLM Security Vulnerabilities 모델 inversion 공격 설명 시 참조. ppl-ai-file-upload.s3.amazonaws
2 Chang et al., 2024, A survey on evaluation of large language models Fine-tuning 단계 설명. ppl-ai-file-upload.s3.amazonaws
4 Das et al., 2024, Security and privacy challenges of LLMs 기존 설문 갭 분석: "Existing works 4, 11, 14...". ppl-ai-file-upload.s3.amazonaws
5 Das et al., 2025, Security and privacy challenges of LLMs DP 기술 언급: "anonymization, encryption, and DP 5". ppl-ai-file-upload.s3.amazonaws
8 Farquhar et al., 2024, Detecting hallucinations using semantic entropy LLM 일반화 및 프라이버시 위험 소개: "stylistic reconstructions 8". ppl-ai-file-upload.s3.amazonaws
11 Gan et al., 2024, Navigating risks in LLM-based agents 설문 비교 테이블 및 갭 분석. ppl-ai-file-upload.s3.amazonaws
14 He et al., 2024, Security and privacy of LLM agent 설문 갭: "He et al. 14 focused on agent-based vulnerabilities". ppl-ai-file-upload.s3.amazonaws
15 He et al., 2025, Label-only membership inference MIA 섹션: "He et al. 15 propose a label-only MIA". ppl-ai-file-upload.s3.amazonaws
23 Li et al., 2024, LLM-PBE Assessing data privacy Inference-related threats 언급. ppl-ai-file-upload.s3.amazonaws
24 Liu et al., 2025, Compromising LLM with contextual backdoor String-matching detection 회피: "evade string-matching based detection 24". ppl-ai-file-upload.s3.amazonaws
25 Mai et al., 2023, Split-and-denoise with LDP DP 및 split learning 테이블 및 섹션. ppl-ai-file-upload.s3.amazonaws
28 Nazi & Peng, 2024, LLMs in healthcare LLM 일반화: "strong generalization capabilities 28". ppl-ai-file-upload.s3.amazonaws
29 Neel & Chang, 2023, Privacy issues in LLMs 설문 갭 및 DP 한계. ppl-ai-file-upload.s3.amazonaws
37 Wang et al., 2023, Pre-trained LMs in biomedical domain Pretraining 설명: "transformer layers... 37". ppl-ai-file-upload.s3.amazonaws
41 Yan et al., 2024, Protecting data privacy of LLMs 설문 갭 분석. ppl-ai-file-upload.s3.amazonaws
46 Yu et al., 2025, UniErase Unlearning Unlearning 섹션 및 도전 과제. ppl-ai-file-upload.s3.amazonaws
50 Zheng et al., 2024, InputSnatch timing attack 속성 추론 공격 예시. ppl-ai-file-upload.s3.amazonaws

 

반응형