RAG 30 - 06 - 2025

GraphRAG: Nâng Tầm RAG với Đồ Thị Tri Thức

RAG truyền thống vẫn còn nhiều hạn chế: Thiếu khả năng hiểu khái niệm tổng quát: Khi người dùng yêu cầu một câu trả lời mang tính khái quát, tổng hợp từ nhiều tài liệu lớn hoặc từ các chủ đề rộng, RAG không đủ khả năng nhận diện và tổng hợp các khái niệm ngữ nghĩa ở cấp độ cao. RAG truyền thống (dựa trên vector search) sẽ hoạt động bằng cách: Tìm các đoạn văn bản có độ tương đồng ngữ nghĩa cao với câu hỏi. Đưa những đoạn đó vào LLM để sinh câu trả lời.  

AI 19 - 06 - 2025

LiteLLM: Chuẩn hóa truy cập LLM và điều phối thông minh qua LLM Gateway

LiteLLM được xây dựng để giải quyết trực tiếp vấn đề này. Nó đóng vai trò như một LLM Gateway – tầng trung gian giúp chuẩn hóa việc gọi LLM, điều phối truy vấn thông minh và kiểm soát chi phí trong môi trường đa mô hình. Là một REST API server tương thích hoàn toàn với OpenAI API. LiteLLM cung cấp API chuẩn OpenAI, bao gồm các endpoint phổ biến như: Nhờ đó, bất kỳ ứng dụng nào hiện đang dùng OpenAI đều có thể chuyển sang dùng Claude, Gemini, Mistral hoặc mô hình cục bộ mà không cần chỉnh sửa code. /v1/chat/completions /v1/completions /v1/embeddings /v1/chat/completions

RAG 23 - 05 - 2025

Agentic Chunking – Nâng cao độ chính xác và toàn diện của câu trả lời trong hệ thống RAG

Thay vì chỉ đơn thuần dựa vào embedding, Agentic Chunking cho phép các LLMs chủ động đánh giá từng câu trong văn bản để quyết định xem câu đó nên được thêm vào chunk hiện tại hay tạo thành một chunk mới. Đồng thời, hệ thống cũng liên tục cập nhật tiêu đề (Title) và tóm tắt (Summary) của từng chunk dựa trên nội dung được bổ sung, giúp tổ chức thông tin rõ ràng và chính xác hơn. Quy trình này không chỉ nâng cao độ chính xác và tính toàn diện của các phần thông tin được chia nhỏ, mà còn hỗ trợ hiệu quả cho các hệ thống truy xuất và sinh câu trả lời tự động, đặc biệt là trong các mô hình Retrieval-Augmented Generation.   Agentic Chunking là một phương pháp chia nhỏ văn bản linh hoạt, thông minh, được điều khiển bởi các mô hình ngôn ngữ lớn. Quy trình này giúp tạo ra các đoạn chunk có nội dung tập trung, dễ quản lý và nâng cao chất lượng truy xuất thông tin. Khởi tạo chunk đầu tiên với câu đầu tiênHệ thống bắt đầu bằng việc tạo một chunk ban đầu chứa câu đầu tiên của văn bản. Đồng thời, nó cập nhật tiêu đề Title và tóm tắt Summary của chunk này dựa trên nội dung câu vừa thêm. Duyệt lần lượt từng câu trong văn bảnAgent (mô hình LLM) sẽ phân tích từng câu tiếp theo theo thứ tự trong văn bản. Mỗi câu được xem xét kỹ lưỡng để xác định xem có nên đưa vào chunk hiện tại hay không. Quyết định thêm câu vào chunk hiện tại hoặc tạo chunk mới Nếu câu mới có liên quan chặt chẽ về nội dung và ngữ cảnh với chunk hiện tại, câu sẽ được thêm vào chunk đó. Sau đó, Title và Summary của chunk được cập nhật lại để phản ánh nội dung mới. Nếu câu không phù hợp để thêm vào chunk hiện tại (ví dụ: thay đổi chủ đề hoặc quá dài gây mất tập trung), hệ thống sẽ tạo một chunk mới với câu đó làm nội dung khởi đầu. Title và Summary cho chunk mới cũng được thiết lập dựa trên câu này.

RAG 20 - 05 - 2025

Semantic Chunking – Cắt văn bản “có hiểu biết” cho AI

Giả sử ta có đoạn văn sau: Nếu sử dụng thuật toán chia văn bản phổ biến như RecursiveCharacterTextSplitter, ta có thể cấu hình như sau:   “EvoCar là một công ty khởi nghiệp trong lĩnh vực xe điện đến từ Đông Nam Á. Với tham vọng trở thành thương hiệu toàn cầu, công ty đã nhanh chóng xây dựng nhà máy sản xuất và trung tâm nghiên cứu chỉ trong vòng 18 tháng. ” “Đến năm thứ hai, EvoCar đã cho ra mắt mẫu xe điện đầu tiên, gây ấn tượng bởi thiết kế hiện đại và phạm vi di chuyển lên đến 500 km mỗi lần sạc. Bên cạnh việc phục vụ thị trường nội địa, EvoCar đặt mục tiêu mở rộng sang các thị trường lớn như Mỹ và châu Âu. ”

Chatbot 29 - 04 - 2025

LabXperience: Triển khai Chatbot truy vấn tài liệu nội bộ với Dify và mô hình BGE-M3

Đây là một quá trình vừa mang tính kỹ thuật sâu, vừa đòi hỏi hiểu biết về triển khai hệ thống, khiến việc xây dựng chatbot trở thành trở ngại đối với nhiều tổ chức, đặc biệt là những đơn vị không có đội ngũ AI chuyên sâu. Dify ra đời để giải quyết bài toán đó. Dify là một nền tảng mã nguồn mở cho phép bất kỳ ai – từ kỹ sư phần mềm đến người làm giáo dục – đều có thể xây dựng, huấn luyện, triển khai và tích hợp chatbot truy vấn tài liệu một cách trực quan, linh hoạt và hoàn toàn tự động.     Chia nhỏ tài liệu (chunking) Tính toán vector embedding Xây dựng hệ thống tìm kiếm ngữ nghĩa

Bài Đọc Nhiều Nhất

Tổng hợp các mô hình CNN nổi tiếng - Phần 1

Tổng quan ROS cơ bản

Hướng dẫn cài đặt và thực hành Spring Boot (Phần 1)