0
0
Lập trình
Admin Team
Admin Teamtechmely

Gemma: Bước Tiến Đột Phá Của Google Trong Xử Lý Ngôn Ngữ Tự Nhiên

Đăng vào 3 ngày trước

• 5 phút đọc

Chủ đề:

LLMNLPTechMely

Giới thiệu

Gần đây, Google đã công bố một mô hình ngôn ngữ tiên tiến mang tên Gemma, được kỳ vọng sẽ tạo ra nhiều đột phá trong lĩnh vực xử lý ngôn ngữ tự nhiên (NLP). Gemma là một dòng mô hình mở, nhẹ và hiện đại, được phát triển từ các nghiên cứu và công nghệ được sử dụng trong việc xây dựng mô hình Gemini. Các mô hình Gemma cho thấy hiệu suất vượt trội theo các tiêu chuẩn học thuật về khả năng hiểu ngôn ngữ, lý luận và an toàn.

Google đã phát hành hai phiên bản của mô hình Gemma với kích thước 2 tỷ và 7 tỷ tham số, cùng với cả điểm kiểm tra được huấn luyện trước và tinh chỉnh (pretrained and fine-tuned checkpoints). Gemma nổi bật hơn nhiều mô hình mở khác trong cùng kích thước bằng cách xuất sắc vượt qua 11 trên tổng số 18 nhiệm vụ dựa trên văn bản. Chúng tôi cung cấp các đánh giá chi tiết về các khía cạnh an toàn và trách nhiệm của mô hình, cùng với những thông tin cụ thể về quá trình phát triển.

Theo tài liệu được Google công bố, Gemma đã được đào tạo trên tối đa 6 tỷ mã thông báo văn bản, áp dụng cùng kiến trúc, dữ liệu và công thức đào tạo như của dòng mô hình Gemini. Cũng như Gemini, các mô hình này cho thấy khả năng tổng quát đáng ghi nhận trong lĩnh vực văn bản, cùng với kỹ năng hiểu và suy luận ưu việt trên quy mô lớn. Chúng tôi cung cấp điểm kiểm tra được đào tạo trước và tinh chỉnh, cũng như cơ sở mã nguồn mở cho cộng đồng.

Về mô hình

Kiến trúc của Gemma dựa trên bộ giải mã biến áp với nhiều cải tiến đáng chú ý như multi-query attention (mô hình 2B), multi-head attention (mô hình 7B), nhúng RoPE (RoPE embeddings), kích hoạt GeGLU (GeGLU activations) và vị trí bộ chuẩn hóa (normalizer location).

Điều Chỉnh Hướng Dẫn (Instruction Tuning)

Google đã điều chỉnh các mô hình Gemma 2B và 7B với các phương pháp sau:

  • Có hướng dẫn: Dựa trên sự kết hợp của các cặp phản hồi nhanh chóng gồm văn bản, cả tiếng Anh và do con người tạo ra.
  • Học tập tăng cường từ phản hồi của con người (RLHF): mô hình khen thưởng được đào tạo dựa trên dữ liệu ưu tiên có gắn nhãn tiếng Anh và chính sách dựa trên bộ lời nhắc.

Định Dạng Prompt

Để tạo ra đầu vào hiệu quả cho Gemma 7B, người dùng cần hiểu cách sử dụng định dạng lời nhắc. Ví dụ về Zero-shot learning, chúng ta có thể tạo một prompt như sau:

Copy
<start_of_turn>user
Giải thích lý do vì sao lá cây có màu xanh<end_of_turn>
<start_of_turn>model

Ngoài ra, người dùng cũng có thể thêm một số chỉ đạo để cải thiện độ chính xác kết quả:

Copy
<start_of_turn>user
Trả lời câu hỏi sau một cách ngắn gọn và thông tin:
Giải thích lý do vì sao lá cây có màu xanh<end_of_turn>
<start_of_turn>model

Kết Quả

Khả năng hiểu ngôn ngữ và hiệu suất tạo của Gemma 7B trên các kỹ năng khác nhau như hỏi đáp, lý luận, toán học/khoa học, và lập trình đã cho thấy những ưu việt rõ rệt so với các mô hình cùng kích cỡ. Gemma 7B đứng đầu trong ba lĩnh vực quan trọng và chỉ kém so với mô hình 13B của LLaMa2 với khoảng cách tối thiểu.

Đánh Giá Theo Sự Ưa Thích của Con Người (Human Preference Evaluations)

Nghiên cứu cũng đã đánh giá các ứng cử viên cuối cùng dựa trên mô hình Hướng dẫn Mistral v0.2 7B. Kết quả cho thấy Gemma 7B có tỷ lệ thành công tích cực là 51,7% cho các nhiệm vụ viết sáng tạo và lập trình, cùng với 58% cho các giao thức an toàn cơ bản so với Mistral v0.2 7B Instruct.

Điểm Chuẩn Tự Động (Automated Benchmarks)

Các mô hình Gemma đã được kiểm tra qua nhiều lĩnh vực, bao gồm lý luận vật lý, xã hội, trả lời câu hỏi, mã hóa, toán học, lý luận thường, mô hình ngôn ngữ và đọc hiểu. Gemma 2B và 7B được so sánh với nhiều mô hình LLM nguồn mở khác. Trên MMLU, Gemma 7B nổi bật hơn tất cả các lựa chọn thay thế nguồn mở và cả các mô hình lớn hơn như LLaMA2 13B.

Dù đã có nhiều tiến bộ, vẫn còn những mặt cần cải thiện để đạt hiệu suất tương đương con người. Các mô hình Gemma vượt trội ở nhiều nhiệm vụ toán học và điểm chuẩn lập trình, đạt được kết quả tốt hơn cả các mô hình CodeLLaMA-7B được tinh chỉnh.

Đánh Giá Về Độ Nhớ (Memorization Evaluations)

Một số phát hiện cho thấy các mô hình có thể dễ bị tổn thương trước các cuộc tấn công thù địch (adversarial attacks). Tuy nhiên, Gemma không lưu giữ thông tin cá nhân hay nhạy cảm. Để kiểm chứng, Google đã sử dụng công cụ Ngăn chặn mất dữ liệu trên đám mây để xác định xem có dữ liệu cá nhân nào bị ghi nhớ hay không. Công cụ này xác định ba mức độ nghiêm trọng cho các loại dữ liệu cá nhân khác nhau mà ở mức cao nhất là “nhạy cảm”. Kết quả cho thấy không có trường hợp nào bị ghi nhớ dữ liệu nhạy cảm.

Kết Luận

Gemma đã cải thiện hiệu suất trên nhiều lĩnh vực, bao gồm giao tiếp, lý luận, toán học và lập trình. Nhờ vào nhiều bài học từ chương trình mô hình Gemini, Gemma được nâng cao chất lượng mã, dữ liệu, điều chỉnh hướng dẫn và học tập tăng cường từ phản hồi người dùng (RLHF).

Tham Khảo:

  1. Gemma: Open Models Based on Gemini Research and Technology
  2. Gemma
  3. Adversarial Attacks on LLMs
  4. Measuring Massive Multitask Language Understanding

Ghi Chú

  • MMLU: Hiểu Ngôn Ngữ Đa Tác Vụ Lớn (Massive Multi-task Language Understanding)
  • MBPP: Điểm Chuẩn Vi Mô cho Các Câu Đố Lập Trình (Micro-Benchmark for Programming Puzzles).
    source: viblo
Gợi ý câu hỏi phỏng vấn
Không có dữ liệu

Không có dữ liệu

Bài viết được đề xuất
Bài viết cùng tác giả

Bình luận

Chưa có bình luận nào

Chưa có bình luận nào