Sơn Tùng Lê • 3 ngày trước • 4 phút đọcHiểu Biết Về Jailbreak LLM: Đảm Bảo An Toàn AI#llms#promptengineering#largelanguagemodels#aisafety13000
NMNguyen Minhtam • 1 ngày trước • 6 phút đọcKhám Phá Lỗ Hổng LLM: Cách Nghiên Cứu Jailbreak AI Bằng Prompt Thông Minh#aisecurity#promptengineering#llms5000