0
0
Lập trình
Sơn Tùng Lê
Sơn Tùng Lê103931498422911686980

RAG 2.0: Các Kỹ Thuật Cải Thiện Cho Mô Hình Truy Xuất Ngữ Cảnh

Đăng vào 3 tuần trước

• 3 phút đọc

RAG 2.0: Các Kỹ Thuật Cải Thiện Cho Mô Hình Truy Xuất Ngữ Cảnh

Trong bài viết này, chúng ta sẽ tiếp tục khám phá một số kỹ thuật quan trọng để cải thiện mô hình Truy xuất Tăng cường Sinh ngữ (RAG). Những cải tiến này không chỉ giúp nâng cao hiệu quả truy xuất thông tin mà còn tối ưu hóa quá trình sinh văn bản.

In-Context RALM

In-Context RALM là một phương pháp kết hợp giữa mô hình ngôn ngữ cố định (Frozen RAG) và thuật toán BM25 để cải thiện khả năng truy xuất thông tin thông qua việc tái xếp hạng (reranking). Dưới đây là các bước chính và khái niệm của In-Context RALM:

1. Sử dụng Frozen RAG và BM25:

  • Frozen RAG: Là mô hình mà trong đó các tham số của mô hình ngôn ngữ (LLM) không thay đổi trong quá trình huấn luyện.
  • BM25: Là thuật toán tìm kiếm văn bản, được áp dụng để truy xuất các tài liệu phù hợp nhất với truy vấn.

2. Tái xếp hạng (Reranking):

  • Sau khi truy xuất các tài liệu bằng BM25, các tài liệu này sẽ được đánh giá và xếp hạng lại dựa trên mức độ liên quan đến truy vấn.
  • Quá trình xếp hạng lại sẽ được thực hiện bởi một mô hình reranker đã được huấn luyện đặc biệt.

3. Huấn luyện Reranker:

  • Ở thiết lập này, chỉ có phần reranker được huấn luyện, trong khi mô hình ngôn ngữ vẫn giữ nguyên. Điều này giúp giảm thiểu độ phức tạp và tài nguyên cần thiết cho việc huấn luyện toàn bộ mô hình.

4. Sử dụng reinforced style loss:

  • Do không thể truy cập vào các tham số của LLM, phong cách mất mát reinforce được áp dụng để huấn luyện các bộ truy xuất.
  • Hiệu quả của bộ truy xuất được đánh giá dựa trên mức độ cải thiện đầu ra của mô hình ngôn ngữ.

5. Tối đa hóa hiệu quả truy xuất:

  • Các cải tiến cho bộ truy xuất tập trung vào việc tối đa hóa mức độ thông tin được truy xuất. Các chỉ số như sự mạch lạc, độ liên quan và độ chính xác thực tế của văn bản được tạo ra sẽ được xem xét kỹ lưỡng.

Combined Contextualized Retriever and Generator

Thay vì chỉ tối ưu hóa một trong hai mô hình ngôn ngữ lớn (LLM) hoặc bộ truy xuất riêng biệt, chúng ta có thể tối ưu hóa toàn bộ quy trình.

RAG-token và RAG-Sequence:

  • RAG-token: Tài liệu được truy xuất cho các token mục tiêu khác nhau trong quá trình sinh văn bản, cho phép truy cập thông tin liên quan vào những thời điểm khác nhau.
  • RAG-Sequence: Chỉ truy xuất tài liệu một lần cho toàn bộ chuỗi, đơn giản hơn nhưng có thể không tận dụng tối đa thông tin khi cần thiết.

Một số hướng tiếp cận:

  • Fusion In Decoder: Sử dụng bộ mã hóa để mã hóa tất cả các tài liệu và hợp nhất chúng lại. Quá trình giải mã sẽ thực hiện trên dữ liệu đã được hợp nhất.

  • k-NN LM: Kết hợp mô hình ngôn ngữ với kỹ thuật k-NN để tìm kiếm và tích hợp thông tin từ các tài liệu liên quan, cải thiện kết quả sinh văn bản.

SOTA Contextualization

REALM: Retrieval-Augmented Language Model Pre-Training

  • REALM là một thuật toán kết hợp giữa mô hình ngôn ngữ và hệ thống truy xuất thông tin, cải thiện khả năng trả lời câu hỏi và thực hiện các tác vụ yêu cầu kiến thức mà mô hình không thể lưu trữ hoàn toàn.

ATLAS

  • ATLAS là một mô hình ngôn ngữ tăng cường truy xuất, thiết kế và huấn luyện để thích ứng với các nhiệm vụ đòi hỏi nhiều kiến thức với ít ví dụ. Hệ thống này cải thiện theo thời gian, thích ứng với yêu cầu của nhiệm vụ.

Tóm tắt

Bài viết đã đề cập đến một số công nghệ mới trong việc phát triển mô hình RAG linh hoạt hơn. Cụ thể, các loại hình RAG bao gồm:

  • Frozen RAG: Mô hình ngôn ngữ cố định, phổ biến trong ngành công nghiệp.
  • Semi-Frozen RAG: Sử dụng các bộ truy xuất thông minh mà không thay đổi mô hình ngôn ngữ lớn.
  • Fully trainable RAG: Khó huấn luyện nhưng mang lại hiệu suất tốt nhất, tiêu tốn nhiều tài nguyên.

Tài liệu tham khảo

Gợi ý câu hỏi phỏng vấn
Không có dữ liệu

Không có dữ liệu

Bài viết được đề xuất
Bài viết cùng tác giả

Bình luận

Chưa có bình luận nào

Chưa có bình luận nào