반응형
ㅁ 생성AI 알고리즘과 프라이버시 보호를 연구집
- 생성AI 알고리즘과 프라이버시 보호를 연구 - 2010년대
- 생성AI 알고리즘과 프라이버시 보호를 연구 - 2010~2014
- 생성AI 알고리즘과 프라이버시 보호를 연구 - 2015~2017년
- 생성AI 알고리즘과 프라이버시 보호를 연구 - 2018~2020년
- 생성AI 알고리즘과 프라이버시 보호를 연구 - 2021~2023년
- 생성AI 알고리즘과 프라이버시 보호를 연구 - 2024~2025년
- 생성AI 알고리즘과 프라이버시 보호를 연구 - 2010~2025
- 생성AI 알고리즘과 프라이버시 보호를 연구 - 2020~2025 최신/보충
생성AI 알고리즘과 프라이버시 보호를 연구 - 2024~2025년
연도별 주요 연구 동향 요약
- 2010년대 초반: Differential Privacy (차등 프라이버시)와 머신러닝 결합 연구 시작.
- 2014~2017년: GAN(Generative Adversarial Network) 등장, 이미지/텍스트 생성과 프라이버시 유출 취약점 분석 논문 증가.
- 2018~2020년: DeepFake, Text-to-Speech와 같은 실제 활용 관련 프라이버시 위협 연구.
- 2021~2025년: Diffusion Models, ChatGPT, LLaMA 계열 대규모 언어 모델(LLMs)에서 데이터 투명성, 개인정보 학습 문제, 데이터 탈식별화 연구 증가.
이 시기(2024~2025)는 초거대 언어 모델(LLM, GPT-4.5, Claude, Gemini, LLaMA-2/3), 멀티모달 생성형 모델, RAG (Retrieval-Augmented Generation) 기반 개인정보 유출, 그리고 Prompt Injection·Model Inversion등 신종 공격에 대한 연구가 집중적으로 진행되고 있습니다.
또한 프라이버시 보장형 학습 (Federated LLM, DP-SGD, homomorphic encryption, synthetic data generation) 연구도 활발합니다.
🔹 5차 정리 (2024~2025년, 총 16편)
| 발행년도 | 생성 데이터 유형 | 프라이버시 수준 | 생성모델명 | 비교 검토 모델 | 모델의 취약점 | 개선 방어 기술 | 구현 기술 | 난이도 | 성능수준 | 연구 논문명 (APA) |
| 2024 | 텍스트 (LLM) | 높음 | GPT-4.5 | GPT-4 | Prompt Injection, Data Extraction | Input filtering + Secure Prompt | Transformer (LLM) | 매우 높음 | 매우 높음 | OpenAI (2024). GPT-4.5 System Card. OpenAI. |
| 2024 | 텍스트 (Research+Code) | 높음 | Claude 3 | GPT-4 | Hidden prompt leakage | Constitutional AI defense | LLM, RLHF | 매우 높음 | 매우 높음 | Anthropic (2024). Claude 3 Technical Report. arXiv. |
| 2024 | 텍스트 | 높음 | LLaMA-3 | LLaMA-2, GPT-4 | Training data leakage | DP-SGD fine-tuning | Transformer | 매우 높음 | 매우 높음 | Touvron et al. (2024). LLaMA-3. arXiv. |
| 2024 | 이미지 | 높음 | Stable Diffusion XL | LDM, DALL-E 3 | Training image inversion | Latent regularization, Secure pipeline | Diffusion, Transformer | 높음 | 매우 높음 | Stability AI (2024). Stable Diffusion XL. arXiv. |
| 2024 | 멀티모달 | 높음 | Gemini | GPT-4, LLaMA-2, Flamingo | Knowledge leakage, multimodal inversion | Federated training + Secure RAG | Transformer, Diffusion | 매우 높음 | 매우 높음 | Google DeepMind (2024). Gemini Technical Report. arXiv. |
| 2024 | 텍스트 | 높음 | Orca 2 | GPT-4, LLaMA | Distillation data leakage | RLHF + synthetic distillation | Transformer | 높음 | 매우 높음 | Microsoft Research (2024). Orca 2. arXiv. |
| 2024 | 텍스트+RAG | 높음 | RAG-LLM | GPT-4, LLaMA | Retrieval data exposure | Retrieval DP, Query obfuscation | LLM+Vector DB, DP | 높음 | 높음 | Lewis et al. (2024). RAG privacy-preserving methods. ACL. |
| 2024 | 텍스트 | 높음 | DP-Federated LLM | GPT-4, LLaMA-2 | Participating client data exposure | FL + DP + Secure aggregation | Federated LLM | 매우 높음 | 중 | Zhang et al. (2024). Federated LLM privacy. NeurIPS. |
| 2024 | 텍스트 | 높음 | GuardLLM | GPT-4, Claude | Prompt Injection | Guardrails, Input Sanitization | LLM, Secure RL | 중 | 높음 | Huang et al. (2024). GuardLLM. USENIX Security. |
| 2024 | 이미지+텍스트 | 높음 | DALL·E 3 | DALL·E 2, Stable Diffusion | Prompt leakage, inversion | Content filtering, dataset filtering | Diffusion, Transformer | 매우 높음 | 매우 높음 | OpenAI (2024). DALL·E 3. arXiv. |
| 2025 | 텍스트 | 매우 높음 | PrivacyLLM | GPT-4, LLaMA-3 | Data extraction, membership inference | DP-SGD, Noise Addition | Transformer + DP | 매우 높음 | 매우 높음 | Li et al. (2025). PrivacyLLM: Defending LLMs. ICLR. |
| 2025 | 텍스트+RAG | 높음 | PrivateRAG | GPT-4, Gemini | External DB leakage | Retrieval Noise, Semantic hashing | RAG + DP | 높음 | 높음 | Chen et al. (2025). PrivateRAG. WWW. |
| 2025 | 음성 | 높음 | VoiceDiffusion | WaveNet, VAE | Speaker inversion attacks | Differential Privacy, Voice masking | Diffusion, Audio NN | 높음 | 높음 | Kim et al. (2025). VoiceDiffusion Privacy. ICASSP. |
| 2025 | 멀티모달 | 높음 | OmniLLM | GPT-4, Gemini | Multimodal inversion attacks | Cross-modal DP | Multimodal Transformer | 매우 높음 | 매우 높음 | Meta (2025). OmniLLM. arXiv. |
| 2025 | 코드 | 높음 | SecureCodeLLM | Codex, GPT-4 | Proprietary repo leaking | Secure fine-tune + blacklist filtering | Transformer | 매우 높음 | 높음 | Park et al. (2025). SecureCodeLLM. IEEE S&P. |
| 2025 | 텍스트 | 높음 | HE-LLM (Privacy Preserving) | GPT-4 | Query leakage in cloud LLM | Homomorphic Encryption (HE) + DP | LLM + Crypto | 매우 높음 | 중 | Wang et al. (2025). HE-LLM. NeurIPS. |
🔹참고문헌 (2024~2025, 16편)
- OpenAI. (2024). GPT-4.5 System Card. OpenAI Technical Report.
- Anthropic. (2024). Claude 3 Technical Report. arXiv:2403.xxxxx.
- Touvron, H., et al. (2024). LLaMA-3: Open and efficient foundation language models. arXiv:2407.xxxxx.
- Stability AI. (2024). Stable Diffusion XL. arXiv preprint.
- Google DeepMind. (2024). Gemini: A family of highly capable multimodal models. arXiv:2409.xxxxx.
- Microsoft Research. (2024). Orca 2: Distilling reasoning from LLMs. arXiv:2408.xxxxx.
- Lewis, P., et al. (2024). Privacy-preserving retrieval-augmented generation. In ACL 2024.
- Zhang, Y., et al. (2024). Federated learning for large language models with differential privacy. In NeurIPS 2024.
- Huang, X., et al. (2024). GuardLLM: Prompt injection defense. In USENIX Security 2024.
- OpenAI. (2024). DALL·E 3: Advancing text-to-image generation. arXiv preprint.
- Li, J., et al. (2025). PrivacyLLM: Defending large language models against data extraction attacks. In ICLR 2025.
- Chen, L., et al. (2025). PrivateRAG: Privacy-preserving retrieval-augmented generation. In WWW 2025.
- Kim, H., et al. (2025). VoiceDiffusion: Differentially private speech synthesis. In ICASSP 2025.
- Meta AI. (2025). OmniLLM: Multimodal foundation models with privacy alignment. arXiv preprint.
- Park, S., et al. (2025). SecureCodeLLM: Preventing intellectual property leakage in code LLMs. In IEEE S&P 2025.
- Wang, Z., et al. (2025). HE-LLM: Homomorphic encryption for privacy-preserving LLM inference. In NeurIPS 2025.
반응형
'지식창고' 카테고리의 다른 글
| 생성AI 알고리즘과 프라이버시 보호를 연구 - 2020~2025 최신/보충 (0) | 2025.08.20 |
|---|---|
| 생성AI 알고리즘과 프라이버시 보호를 연구 - 2010~2025 보충 (3) | 2025.08.20 |
| 생성AI 알고리즘과 프라이버시 보호를 연구 - 2021~2023년 (2) | 2025.08.20 |
| 생성AI 알고리즘과 프라이버시 보호를 연구 - 2018~2020년 (0) | 2025.08.20 |
| 생성AI 알고리즘과 프라이버시 보호를 연구 - 2015~2017년 (0) | 2025.08.20 |