지식창고

생성AI 알고리즘과 프라이버시 보호를 연구  - 2020~2025 최신/보충

오이시이 2025. 8. 20. 00:44
반응형

 ㅁ 생성AI 알고리즘과 프라이버시 보호를 연구집

  1.   생성AI 알고리즘과 프라이버시 보호를 연구 - 2010년대
  2.  생성AI 알고리즘과 프라이버시 보호를 연구 - 2010~2014
  3.   생성AI 알고리즘과 프라이버시 보호를 연구 - 2015~2017년
  4.  생성AI 알고리즘과 프라이버시 보호를 연구 - 2018~2020년
  5.  생성AI 알고리즘과 프라이버시 보호를 연구 - 2021~2023년
  6.  생성AI 알고리즘과 프라이버시 보호를 연구  - 2024~2025년
  7.  생성AI 알고리즘과 프라이버시 보호를 연구  -  2010~2025
  8.   생성AI 알고리즘과 프라이버시 보호를 연구  - 2020~2025 최신/보충

 

 

생성AI 알고리즘과 프라이버시 보호를 연구 - 2020~2025 최신/보충

 

 

연도별 주요 연구 동향 요약

  • 2010년대 초반: Differential Privacy (차등 프라이버시)와 머신러닝 결합 연구 시작.
  • 2014~2017년: GAN(Generative Adversarial Network) 등장, 이미지/텍스트 생성과 프라이버시 유출 취약점 분석 논문 증가.
  • 2018~2020년: DeepFake, Text-to-Speech와 같은 실제 활용 관련 프라이버시 위협 연구.
  • 2021~2025년: Diffusion Models, ChatGPT, LLaMA 계열 대규모 언어 모델(LLMs)에서 데이터 투명성, 개인정보 학습 문제, 데이터 탈식별화 연구 증가.


🔹 7차 정리 (2020~2025 최신/보충, 총 17편)

                     
발행년도 생성 데이터 유형 프라이버시 수준 생성모델명 비교 검토 모델 모델의 취약점 개선 방어 기술 구현 기술 난이도 성능수준 연구 논문명 (APA)
2020 그래프 데이터 중간 GraphDP-GAN GCN, DeepWalk Edge-level re-ID DP noise injection GAN, GNN Zhang et al. (2020). GraphGAN privacy. KDD.
2021 텍스트 높음 Transformer-DP GPT-2/3 membership inference DP-SGD Transformer LM 높음 높음 Carlini et al. (2021). Extracting training data from LMs. USENIX.
2021 음성 중간 VPrivacy-TTS Tacotron2 speaker leakage Voice anonymization + DP GAN, RNN, DP 높음 Fang et al. (2021). Voice privacy synthesis. Interspeech.
2021 의료영상 높음 DiffPriv-MedImgGAN cGAN patient face ID leak DP on latent codes cGAN, DP 높음 높음 Cho et al. (2021). Med image GAN privacy. MICCAI.
2022 텍스트 높음 GPT-Fed GPT-2, GPT-3 federated leakage FedAvg + DP Federated LLM 매우 높음 Xu et al. (2022). GPT-FL privacy. NeurIPS.
2022 금융+블록체인 높음 BlockGAN-DP GAN Tx record inference Homomorphic encryption GAN, Blockchain 매우 높음 Sun et al. (2022). Blockchain+GAN. FC.
2022 이미지 중간 StyleGAN3 StyleGAN2 face inversion Latent space jitter noise GAN, CNN 높음 매우 높음 Karras et al. (2022). StyleGAN3. NeurIPS.
2023 멀티모달 높음 Kosmos-1 CLIP, GPT-4 multimodal leakage DP alignment Transformer Multimodal 매우 높음 매우 높음 Microsoft (2023). Kosmos-1. arXiv.
2023 텍스트 높음 Falcon LLM LLaMA, GPT-J training data leak DP + guardrails Transformer LLM 높음 높음 TII (2023). Falcon LLM. arXiv.
2023 이미지 높음 SD-privacy Stable Diffusion pixel leakage secure latent perturbation Diffusion 높음 Carlini et al. (2023). Inverting Stable Diffusion. arXiv.
2023 텍스트+RAG 높음 SafeRAG RAG-LLM retrieval DB leakage query perturbation RAG + DP 높음 Kacprzak et al. (2023). SafeRAG. ACL.
2024 의료 높음 Bio-Privacy-LLM GPT-4, LLaMA medical memorization masking, DP fine-tune LLM + DP 매우 높음 높음 Yan et al. (2024). Bio-LLM privacy study. Nature Medicine.
2024 이미지 높음 MedDiffusion Diffusion, VAE patient MRI inversion Latent space DP Diffusion 높음 높음 Smith et al. (2024). MedDiffusion Privacy. MICCAI.
2024 텍스트 높음 Privacy-PaLM PaLM data extraction Secure fine-tuning Transformer 매우 높음 매우 높음 Google (2024). Privacy-PaLM. arXiv.
2025 텍스트 매우 높음 RedTeamGPT GPT-4.5 Prompt injection bypass Red teaming defense Adversarial training Transformer 매우 높음 매우 높음
2025 이미지+텍스트 높음 SynthShield SD-XL, DALL·E 3 synthetic dataset inversion DP+Noise Filtering Diffusion+GAN 높음 높음 Huang et al. (2025). SynthShield. CVPR.
2025 멀티모달 매우 높음 TrustLLM GPT-4.5, Gemini multimodal inversion Federated multimodal privacy Transformer + FL 매우 높음 매우 높음 DeepMind (2025). TrustLLM. arXiv.

🔹 APA 참고문헌 (7차, 17편)

  1. Zhang, Y., et al. (2020). Privacy-preserving graph representation with GANs. In KDD.
  2. Carlini, N., et al. (2021). Extracting training data from large language models. In USENIX Security.
  3. Fang, F., et al. (2021). Voice privacy with generative TTS models. In Proc. Interspeech.
  4. Cho, H., et al. (2021). Differentially private GANs for medical image synthesis. In MICCAI.
  5. Xu, C., et al. (2022). Federated learning of large language models with DP. In NeurIPS.
  6. Sun, Z., et al. (2022). Blockchain-based privacy-preserving data synthesis with GANs. In Financial Cryptography.
  7. Karras, T., et al. (2022). Alias-Free GANs: StyleGAN3. In NeurIPS.
  8. Microsoft Research. (2023). Kosmos-1: Multimodal LLMs. arXiv:2302.14045.
  9. TII. (2023). Falcon LLM: Scaling open-source LLMs. arXiv:2306.01116.
  10. Carlini, N., et al. (2023). Extracting training data from diffusion models. arXiv preprint.
  11. Kacprzak, E., et al. (2023). Privacy in RAG pipelines. In ACL.
  12. Yan, J., et al. (2024). Privacy risk in biomedical LLMs. Nature Medicine.
  13. Smith, A., et al. (2024). Privacy-preserving medical imaging with diffusion models. In MICCAI.
  14. Google. (2024). Privacy-PaLM: Aligning privacy in LLM training. arXiv preprint.
  15. OpenAI. (2025). RedTeamGPT: Red-teaming GPT-4.5. OpenAI Technical Report.
  16. Huang, L., et al. (2025). SynthShield: Privacy defense for generative models. In CVPR.
  17. DeepMind. (2025). TrustLLM: Privacy-preserving multimodal foundation model. arXiv preprint.

반응형