Tạo tăng cường truy xuất là gì?
Tạo tăng cường truy xuất (RAG) là quá trình tối ưu hóa đầu ra của một mô hình ngôn ngữ lớn, vì vậy nó tham khảo một cơ sở kiến thức có thẩm quyền bên ngoài các nguồn dữ liệu đào tạo của nó trước khi tạo phản hồi. Mô hình ngôn ngữ lớn (LLM) được đào tạo trên khối lượng dữ liệu khổng lồ và có sử dụng hàng tỷ tham số để tạo ra đầu ra ban đầu cho các nhiệm vụ như trả lời câu hỏi, dịch ngôn ngữ và hoàn thành câu. RAG mở rộng các khả năng vốn đã mạnh mẽ của LLM đến các miền cụ thể hoặc cơ sở kiến thức nội bộ của tổ chức, tất cả mà không cần đào tạo lại mô hình. Đây là một cách tiếp cận hiệu quả về chi phí để cải thiện đầu ra LLM, để nó vẫn phù hợp, chính xác và hữu ích trong nhiều bối cảnh khác nhau.
Tại sao Tạo tăng cường truy xuất lại quan trọng?
LLM là một công nghệ trí tuệ nhân tạo (AI) quan trọng, hỗ trợ các chatbot thông minh và các ứng dụng xử lý ngôn ngữ tự nhiên (NLP) khác. Mục tiêu là tạo ra các bot có thể trả lời các câu hỏi của người dùng trong nhiều bối cảnh bằng cách tham chiếu chéo các nguồn kiến thức có thẩm quyền. Rất tiếc, bản chất của công nghệ LLM đưa ra sự không thể đoán trước trong các phản hồi LLM. Ngoài ra, dữ liệu đào tạo LLM là tĩnh và giới thiệu ngày giới hạn về kiến thức hiện có.
Các thách thức đã biết của LLM bao gồm:
- Trình bày thông tin sai lệch khi nó không có câu trả lời.
- Trình bày thông tin lỗi thời hoặc chung chung khi người dùng mong chờ một phản hồi cụ thể, hiện tại.
- Tạo phản hồi từ những nguồn không có thẩm quyền.
- Tạo phản hồi không chính xác do nhầm lẫn thuật ngữ, trong đó các nguồn đào tạo khác nhau sử dụng cùng một thuật ngữ để nói về những điều khác nhau.
Bạn có thể nghĩ về Mô hình ngôn ngữ lớn như một nhân viên mới quá nhiệt tình, từ chối cập nhật thông tin về các sự kiện hiện tại nhưng sẽ luôn trả lời mọi câu hỏi với sự tự tin tuyệt đối. Rất tiếc, một thái độ như vậy ảnh hưởng tiêu cực đến sự tin tưởng của người dùng và không phải là thứ bạn muốn chatbot của mình mô phỏng!
RAG là một cách giải quyết một số thách thức này. Nó chuyển hướng LLM để truy xuất thông tin liên quan từ các nguồn kiến thức có thẩm quyền, đã xác định trước. Các tổ chức có quyền kiểm soát tốt hơn đối với đầu ra văn bản đã tạo và người dùng nắm được thông tin chi tiết về cách LLM tạo phản hồi.
Lợi ích của Tạo tăng cường truy xuất là gì?
Công nghệ RAG mang đến một số lợi ích cho các nỗ lực AI tạo sinh của một tổ chức.
Thực hiện tiết kiệm chi phí
Phát triển Chatbot thường bắt đầu sử dụng một mô hình nền tảng. Mô hình nền tảng (FM) là LLM có thể truy cập API được đào tạo trên một loạt các dữ liệu được tạo sinh và không được dán nhãn. Chi phí tính toán và tài chính của việc đào tạo lại FM cho tổ chức hoặc thông tin dành riêng cho miền là cao. RAG là một cách tiếp cận tiết kiệm chi phí hơn để giới thiệu dữ liệu mới cho LLM. Nó làm cho công nghệ trí tuệ nhân tạo tạo sinh (AI tạo sinh) dễ tiếp cận và có thể sử dụng rộng rãi hơn.
Thông tin hiện tại
Ngay cả khi các nguồn dữ liệu đào tạo ban đầu cho LLM phù hợp với nhu cầu của bạn, việc duy trì sự liên quan vẫn là một thách thức. RAG cho phép các nhà phát triển cung cấp các nghiên cứu, thống kê hoặc tin tức mới nhất cho các mô hình tạo sinh. Họ có thể sử dụng RAG để kết nối LLM trực tiếp với nguồn cấp dữ liệu truyền thông xã hội trực tiếp, trang tin tức hoặc các nguồn thông tin được cập nhật thường xuyên khác. Sau đó, LLM có thể cung cấp thông tin mới nhất cho người dùng.
Nâng cao niềm tin của người dùng
RAG cho phép LLM trình bày thông tin chính xác với phân bổ nguồn. Đầu ra có thể bao gồm trích dẫn hoặc tham chiếu đến các nguồn. Người dùng cũng có thể tự tìm kiếm tài liệu nguồn nếu họ yêu cầu làm rõ thêm hoặc chi tiết hơn. Điều này có thể tăng sự tin tưởng và tự tin vào giải pháp AI tạo sinh của bạn.
Nhà phát triển có quyền kiểm soát tốt hơn
Với RAG, các nhà phát triển có thể kiểm tra và cải thiện các ứng dụng trò chuyện của mình hiệu quả hơn. Họ có thể kiểm soát và thay đổi các nguồn thông tin của LLM để thích ứng với các yêu cầu thay đổi hoặc sử dụng đa chức năng. Các nhà phát triển cũng có thể hạn chế truy xuất thông tin nhạy cảm ở các mức ủy quyền khác nhau và đảm bảo LLM tạo ra các phản hồi thích hợp. Ngoài ra, họ cũng có thể khắc phục sự cố và sửa chữa nếu LLM tham chiếu các nguồn thông tin không chính xác cho các câu hỏi cụ thể. Các tổ chức có thể triển khai công nghệ AI tạo sinh một cách tự tin hơn cho nhiều ứng dụng hơn.
Tạo tăng cường truy xuất hoạt động như thế nào?
Nếu không có RAG, LLM nhận đầu vào của người dùng và tạo ra phản hồi dựa trên thông tin mà nó đã được đào tạo — hoặc những gì nó đã biết. Với RAG, một thành phần truy xuất thông tin được giới thiệu sử dụng đầu vào của người dùng để lấy trước thông tin từ một nguồn dữ liệu mới. Truy vấn người dùng và thông tin có liên quan đều được cung cấp cho LLM. LLM sử dụng kiến thức mới và dữ liệu đào tạo của nó để tạo ra phản hồi tốt hơn. Các phần sau đây cung cấp thông tin tổng quan về quy trình.
Tạo dữ liệu bên ngoài
Dữ liệu mới bên ngoài tập dữ liệu đào tạo ban đầu của LLM được gọi là dữ liệu bên ngoài. Nó có thể đến từ nhiều nguồn dữ liệu như API, cơ sở dữ liệu hoặc kho tài liệu. Dữ liệu có thể tồn tại ở nhiều định dạng khác nhau như tệp, bản ghi cơ sở dữ liệu hoặc văn bản dạng dài. Một kỹ thuật AI khác, được gọi là mô hình ngôn ngữ nhúng, chuyển đổi dữ liệu thành các dạng trình bày số và lưu trữ nó trong cơ sở dữ liệu véc-tơ. Quá trình này tạo ra một thư viện kiến thức mà các mô hình AI tạo sinh có thể hiểu được.
Truy xuất thông tin liên quan
Bước tiếp theo là thực hiện tìm kiếm sự liên quan. Truy vấn người dùng được chuyển đổi thành dạng trình bày véc-tơ và khớp với cơ sở dữ liệu véc-tơ. Ví dụ: hãy xem xét một chatbot thông minh có thể trả lời những câu hỏi về nguồn nhân lực cho một tổ chức. Nếu một nhân viên tìm kiếm, “Tôi có bao nhiêu thời gian nghỉ phép hàng năm?” hệ thống sẽ truy xuất các tài liệu chính sách nghỉ phép hàng năm cùng với hồ sơ nghỉ phép trước đây của từng nhân viên. Những tài liệu cụ thể này sẽ được trả lại vì chúng khá liên quan đến những gì nhân viên có đầu vào. Sự liên quan được tính toán và thiết lập bằng các phép tính và dạng trình bày véc-tơ toán học.
Tăng cường lời nhắc LLM
Tiếp theo, mô hình RAG tăng cường đầu vào của người dùng (hoặc lời nhắc) bằng cách thêm dữ liệu truy xuất liên quan trong ngữ cảnh. Bước này sử dụng các kỹ thuật tạo câu lệnh để giao tiếp hiệu quả với LLM. Với lời nhắc tăng cường, các mô hình ngôn ngữ lớn có thể tạo ra câu trả lời chính xác cho các truy vấn của người dùng.
Cập nhật dữ liệu bên ngoài
Câu hỏi tiếp theo có thể là—điều gì sẽ xảy ra nếu dữ liệu bên ngoài cũ? Để duy trì thông tin hiện tại để truy xuất, cập nhật không đồng bộ các tài liệu và cập nhật nhúng bản trình bày của tài liệu. Bạn có thể làm điều này nhờ các quy trình thời gian thực tự động hoặc xử lý hàng loạt định kỳ. Đây là một thách thức thường gặp trong phân tích dữ liệu — có thể sử dụng các phương pháp tiếp cận khoa học dữ liệu khác nhau để quản lý thay đổi.
Sơ đồ sau đây cho thấy quy trình mang tính khái niệm của việc sử dụng RAG với LLM.
Sự khác biệt giữa Tạo tăng cường truy xuất và Tìm kiếm theo ngữ nghĩa là gì?
Tìm kiếm ngữ nghĩa nâng cao kết quả RAG cho các tổ chức muốn thêm các nguồn kiến thức bên ngoài rộng lớn vào ứng dụng LLM của mình. Các doanh nghiệp hiện đại lưu trữ lượng thông tin lớn như hướng dẫn sử dụng, câu hỏi thường gặp (FAQ), báo cáo nghiên cứu, hướng dẫn dịch vụ khách hàng và kho tài liệu nhân sự trên các hệ thống khác nhau. Việc truy xuất ngữ cảnh là một thách thức trên quy mô lớn và do đó làm giảm chất lượng đầu ra tạo sinh.
Các công nghệ tìm kiếm theo ngữ nghĩa có thể quét các cơ sở dữ liệu lớn về thông tin khác nhau và truy xuất dữ liệu chính xác hơn. Ví dụ: họ có thể trả lời các câu hỏi như “Đã chi bao nhiêu cho việc sửa chữa máy móc vào năm ngoái?” bằng cách ánh xạ câu hỏi với các tài liệu liên quan và trả về văn bản cụ thể thay vì kết quả tìm kiếm. Sau đó, các nhà phát triển có thể dùng câu trả lời đó để cung cấp thêm ngữ cảnh cho LLM.
Các giải pháp tìm kiếm thông thường hoặc theo từ khóa trong RAG tạo ra kết quả hạn chế cho các nhiệm vụ chuyên sâu về kiến thức. Các nhà phát triển cũng phải xử lý quá trình nhúng từ, phân đoạn tài liệu và các phức tạp khác khi chuẩn bị dữ liệu của mình theo cách thủ công. Ngược lại, các công nghệ tìm kiếm theo ngữ nghĩa thực hiện mọi công việc chuẩn bị cơ sở kiến thức để các nhà phát triển không phải làm. Chúng cũng tạo ra các đoạn văn có liên quan về ngữ nghĩa và các từ mã thông báo được sắp xếp theo mức độ liên quan nhằm tối đa hóa chất lượng của tải trọng RAG.
AWS có thể hỗ trợ các yêu cầu về Tạo tăng cường truy xuất như thế nào?
Amazon Bedrock là một dịch vụ được quản lý toàn phần mang đến lựa chọn về mô hình nền tảng hiệu suất cao cùng với một loạt khả năng để xây dựng các ứng dụng AI tạo sinh, đồng thời đơn giản hóa việc phát triển, đảm bảo quyền riêng tư và tính bảo mật. Với cơ sở kiến thức về Amazon Bedrock, bạn có thể kết nối FM với nguồn dữ liệu của mình cho RAG chỉ bằng vài lần nhấp. Việc chuyển đổi vectơ, truy xuất và cải thiện kết quả đầu ra đều được xử lý tự động.
Đối với các tổ chức quản lý RAG riêng, Amazon Kendra là một dịch vụ tìm kiếm doanh nghiệp dùng công nghệ máy học và có độ chính xác cao. Dịch vụ này cung cấp API Truy xuất trong Kendra được tối ưu hóa để bạn dùng với trình xếp hạng ngữ nghĩa có độ chính xác cao của Amazon Kendra làm trình truy xuất doanh nghiệp cho quy trình công việc RAG của bạn. Ví dụ: với API Truy xuất, bạn có thể:
- Truy xuất tối đa 100 đoạn văn có liên quan về ngữ nghĩa, trong đó mỗi đoạn có tối đa 200 từ, được sắp xếp theo mức độ liên quan.
- Sử dụng các công cụ kết nối tạo sẵn cho các công nghệ dữ liệu phổ biến như Dịch vụ lưu trữ đơn giản của Amazon, SharePoint, Confluence và các trang web khác.
- Hỗ trợ một loạt các định dạng tài liệu như HTML, Word, PowerPoint, PDF, Excel và các tệp văn bản.
- Lọc phản hồi dựa trên các tài liệu mà quyền của người dùng cuối cho phép.
Amazon cũng cung cấp các tùy chọn cho những tổ chức muốn xây dựng thêm nhiều giải pháp AI tạo sinh tùy chỉnh. Amazon SageMaker JumpStart là trung tâm máy học (ML) với các mô hình nền tảng, thuật toán tích hợp và các giải pháp ML tạo sẵn mà bạn có thể triển khai chỉ với bằng vài lần nhấp. Bạn có thể đẩy nhanh quá trình triển khai RAG bằng cách tham khảo sổ ghi chép SageMaker hiện có và các ví dụ về mã.
Hãy tạo tài khoản miễn phí ngay hôm nay để bắt đầu dùng phương thức Tạo tăng cường truy xuất trên AWS