AI 19 - 06 - 2025

LiteLLM: Chuẩn hóa truy cập LLM và điều phối thông minh qua LLM Gateway

Trong hệ sinh thái AI hiện đại, các mô hình ngôn ngữ lớn (LLM) như GPT-4, Claude 3, Gemini, Mistral hay LLaMA không còn được triển khai theo kiểu đơn lẻ. Thay vào đó, các tổ chức thường kết hợp nhiều mô hình khác nhau để đạt được sự cân bằng giữa hiệu quả, chi phí và độ tin cậy. Tuy nhiên, việc tích hợp này không hề đơn giản: mỗi mô hình có API riêng, yêu cầu bảo mật riêng và cách tính chi phí khác nhau. Điều đó dẫn đến những khó khăn trong quản lý, mở rộng và thay đổi mô hình linh hoạt.

RAG 23 - 05 - 2025

Agentic Chunking – Nâng cao độ chính xác và toàn diện của câu trả lời trong hệ thống RAG

Trong bài trước, chúng ta đã tìm hiểu về Semantic Chunking – kỹ thuật cắt văn bản “có hiểu biết” dựa trên embedding, giúp mô hình AI phân đoạn văn bản thành các phần nhỏ có ý nghĩa để truy xuất hiệu quả. Tuy nhiên, Semantic Chunking vẫn còn một số giới hạn khi phải xử lý các văn bản phức tạp, nơi việc hiểu sâu sắc ngữ cảnh và nội dung chi tiết của từng câu là rất quan trọng.  

Generative AI 08 - 04 - 2025

Giới thiệu sách "Trí Tuệ Nhân Tạo cho Mọi Người"

Giới thiệu sách "Trí Tuệ Nhân Tạo cho Mọi Người" – một cuốn sách đặc biệt được đồng sáng tác bởi Prof Happy + AI. Không phải là một tác phẩm học thuật nặng nề, cuốn sách này mang đến cái nhìn đơn giản, dễ hiểu, và cực kỳ gần gũi về trí tuệ nhân tạo – từ khái niệm cơ bản đến các ứng dụng trong đời sống, giáo dục, y tế, tài chính. . . 🧠💡 🎯 Đây là ví dụ điển hình cho thấy: AI đang tạo ra một cuộc cách mạng trong lĩnh vực sáng tạo và xuất bản. Nó giúp đơn giản hóa quy trình, rút ngắn thời gian biên tập và mở ra cánh cửa tri thức cho mọi người – đặc biệt là những ai chưa từng dám bước vào thế giới công nghệ!   #SIUAILab #AIForEveryone #BookByAI #TríTuệNhânTạo #HumansAndAI #SáchAI #AIxEducation #FutureOfLearning

LLama 08 - 04 - 2025

Meta ra mắt bộ ba mô hình AI Llama 4

Llama 4 là thế hệ mô hình AI đa phương thức mới, đánh dấu một bước tiến đáng kể trong lĩnh vực này. Nó được phát triển bởi Meta và được thiết kế để mang lại sự hiểu biết và tạo sinh nội dung đa dạng một cách tự nhiên. Các điểm chính bao gồm: Llama 4 Behemoth: Mô hình lớn nhất với 288 tỷ tham số và 16 chuyên gia hoạt động. Nó được huấn luyện trên một lượng lớn dữ liệu đa phương thức. Llama 4 Scout: Mô hình nhỏ hơn với 16 tỷ tham số và cửa sổ ngữ cảnh công nghiệp là 10 nghìn tokens, với tổng cộng 1098 nghìn tokens. Các mô hình Llama 4 Scout là các mô hình đầu tiên của Meta AI chỉ dựa trên kiến trúc bộ mã hóa. Các mô hình MoE hiệu quả hơn nhiều về tính toán vì chúng chỉ kích hoạt một phần nhỏ tổng số tham số cho mỗi mã thông báo. Llama 4 Maverick được đánh giá là vượt trội so với Gemini 1. 5 Flash và Mistral Large trên một loạt các chuẩn mực. Theo các đánh giá nội bộ, Llama 4 Maverick và Llama 4 Scout vượt trội hơn đáng kể so với Llama 3 trên nhiều điểm chuẩn.

Information Retrieval 08 - 03 - 2025

Information Retrieval (IR) – Hệ Thống Truy Xuất Thông Tin Trong Kỷ Nguyên Số

1. Giới thiệu về Information Retrieval (IR)  Hãy tưởng tượng bạn đang đứng trong một thư viện khổng lồ với hàng triệu quyển sách. Bạn cần tìm một quyển sách về "Trí tuệ nhân tạo", nhưng bạn không nhớ tiêu đề chính xác. Bạn sẽ làm thế nào? Nếu có một thủ thư giỏi, họ sẽ giúp bạn tìm kiếm thông tin nhanh chóng dựa trên từ khóa bạn cung cấp. Information Retrieval hoạt động giống như thủ thư đó, nhưng ở quy mô toàn cầu trên Internet.   Information Retrieval là quá trình tìm kiếm, trích xuất và xếp hạng các tài nguyên thông tin phù hợp với nhu cầu của người dùng từ một tập hợp dữ liệu lớn.     2.  Information Retrieval có từ khi nào?  1960s - 1980s: Phát triển các mô hình tìm kiếm cơ bản như Boolean Model, Vector Space Model.  

LLM 01 - 03 - 2025

Rewrite-Retrieve-Read: 1 phương pháp cải thiện hiệu suất cho LLM

Trong thế giới của Mô Hình Ngôn Ngữ Lớn, việc tối ưu hóa khả năng tiếp cận thông tin là một thách thức quan trọng. Rewrite-Retrieve-Read ra đời như một giải pháp mang tính đột phá, thay thế phương pháp truyền thống Retrieve-Then-Read, giúp cải thiện hiệu suất truy xuất thông tin của LLM. Phương pháp dùng NLP truyền thống (còn gọi là Retrieve-Then-Read) dựa vào việc tìm kiếm và cung cấp thông tin từ các kho dữ liệu bên ngoài trước khi LLM xử lý và đưa ra kết quả. Tuy nhiên, phương pháp này gặp một số vấn đề: Khoảng cách giữa truy vấn và tri thức cần thiết: Truy vấn gốc từ người dùng có thể không rõ ràng hoặc không đủ chi tiết, dẫn đến kết quả tìm kiếm không chính xác. Thông tin lỗi thời hoặc không chính xác: Dữ liệu mà LLM sử dụng có thể đã lỗi thời, trong khi nhu cầu truy xuất thông tin mới liên tục thay đổi. Trong khi đó, nếu biến đổi câu query thành "2000 movie "All Star" song" sẽ trả về kết quả truy vấn chính xác hơn.   Bước 1: Rewrite – LLM hoặc một mô hình nhỏ hơn sẽ điều chỉnh truy vấn đầu vào để phù hợp hơn với nhu cầu tìm kiếm thực tế.

RAG 11 - 01 - 2025

Cải tiến Retriever bằng Hypothetical Document Embeddings HyDE

Hiểu bối cảnh: HyDE không chỉ xử lý truy vấn một cách bề mặt mà còn dựa vào bối cảnh để tạo ra các tài liệu giả định liên quan nhất. Tối ưu hóa dữ liệu: Thay vì yêu cầu một lượng lớn dữ liệu huấn luyện, HyDE tạo ra dữ liệu giả định để giảm tải lưu trữ và tăng cường hiệu quả sử dụng. Khả năng thích ứng cao: Với các truy vấn phức tạp hoặc không rõ ràng, HyDE có thể bổ sung ngữ cảnh để đạt kết quả chính xác và chi tiết hơn. Nhận Truy Vấn Người Dùng: Người dùng đặt câu hỏi hoặc truy vấn dưới nhiều dạng khác nhau, ví dụ:

Bài Đọc Nhiều Nhất

Tổng hợp các mô hình CNN nổi tiếng - Phần 1
Tổng quan ROS cơ bản
Hướng dẫn cài đặt và thực hành Spring Boot (Phần 1)