NMNguyen Minhtam • 1 ngày trước • 6 phút đọcKhám Phá Lỗ Hổng LLM: Cách Nghiên Cứu Jailbreak AI Bằng Prompt Thông Minh#aisecurity#promptengineering#llms5000