BẢO MẬT AN TOÀN DỮ LIỆU TRONG CÁC HỆ THỐNG CHAT BOT AI SỬ DỤNG KIẾN TRÚC RETRIEVAL AUGMENTED GENERATION(RAG)
DOI:
https://doi.org/10.59266/houjs.2025.739Từ khóa:
tạo sinh tăng cường bằng truy xuất (RAG), bảo mật dữ liệu, mô hình ngôn ngữ lớn (LLMs), tấn công tiêm mã lệnh (Prompt Injection), tấn công đầu độc dữ liệu, kiểm soát truy cập, bảo mật Chat bot AITóm tắt
Kiến trúc Retrieval-Augmented Generation (RAG) đã cách mạng hóa khả năng của chat bot AI, cho phép chúng cung cấp câu trả lời dựa trên kho kiến thức riêng, cập nhật và chính xác. Tuy nhiên, sự tích hợp chặt chẽ giữa hệ thống truy xuất dữ liệu và Mô hình Ngôn ngữ Lớn (LLM) đã tạo ra một bề mặt tấn công mới, đặt ra những thách thức bảo mật nghiêm trọng. Bài viết này trình bày một phân tích tổng hợp về các rủi ro và lỗ hổng bảo mật đặc thù của hệ thống RAG, dựa trên các nghiên cứu học thuật tiên phong. Chúng tôi hệ thống hóa các mối đe dọa theo từng giai đoạn của kiến trúc, bao gồm đầu độc dữ liệu, tấn công truy xuất, tiêm mã độc vào câu lệnh (prompt injection) và rò rỉ dữ liệu nhạy cảm. Từ đó, bài viết đề xuất một khung chiến lược bảo mật đa lớp, tập trung vào quản trị dữ liệu chủ động, kiểm soát truy cập nghiêm ngặt và các cơ chế phòng thủ động như "lan can" (guardrails). Nghiên cứu này nhằm cung cấp một lộ trình rõ ràng cho các nhà phát triển và tổ chức để xây dựng các hệ thống RAG không chỉ thông minh mà còn an toàn và đáng tin cậy.
Tài liệu tham khảo
[1]. Alkhamissi, B., Martin, M. M., et al. (2024). RECALL: A Benchmark for Responsible and Safe RAG. arXiv. https://arxiv.org/abs/2403.12213
[2]. Dutta, A., Das, S., et al. (2024). GARAG: A Guardrail for Retrieval- Augmented Generation. arXiv. https:// arxiv.org/abs/2404.09914
[3]. He, Z., Zhang, B., et al. (2024a). The Dark Side of RAG: A Taxonomy of Security and Privacy Risks. arXiv. https://arxiv.org/abs/2405.08483
[4]. He, Z., Zhang, B., et al. (2024b). Soteria: A Provably-Secure and High- Performance RAG System. arXiv. https://arxiv.org/abs/2403.04753
[5]. Islam, S. M. T., et al. (2024). RAG- BENCH: A Comprehensive Benchmark for RAG Systems. arXiv. https://arxiv. org/abs/2405.07465
[6]. Kumar, P., Turaga, N., et al. (2024). Security Threats in Large Language Model based Applications. arXiv. https://arxiv.org/abs/2402.16452
[7]. Lu, L., Zhang, Y., et al. (2023). A Survey of Security and Privacy in Large Language Models. arXiv. https:// arxiv.org/abs/2312.03286
[8]. Ouyang, L., Xi, Z., et al. (2024). Poisoning Retrieval-Augmented Generation Models. arXiv. https:// arxiv.org/abs/2405.02613
[9]. Rohlf, C., & O’Meara, R. M. (2024).
Attacking Retrieval-Augmented Generation with Cross-Contextual Prompt Injection. DEF CON 32 Presentation.
[10]. Russ, D., Hasida, O., et al. (2024). RAG- Jacking: A New Overt-Bag-of-Words Attack Against RAG-based LLMs. arXiv. https://arxiv.org/abs/2404.14410
[11]. V, R. A., Horawalavithana, S., et al. (2024). Privacy-Preserving Retrieval- Augmented Generation. arXiv. https:// arxiv.org/abs/2402.17688
[12]. Zhang, Z., Peng, C., et al. (2024). An Investigation of Prompt Injection Attack and Defense in Retrieval- Augmented Generation. arXiv. https:// arxiv.org/abs/2404.12276