AI 17 - 04 - 2025

LabXperience: Setup BrowserMCP để LLM điều khiển Browser của bạn

Bài viết hướng dẫn từng bước cách thiết lập và sử dụng Browser MCP, một công cụ giúp mô hình ngôn ngữ lớn (LLM) như ChatGPT hoặc Copilot tương tác trực tiếp với trình duyệt web thông qua các thao tác như truy cập trang web, điền form, click nút, trích xuất dữ liệu. . .

AI 12 - 04 - 2025

So sánh MCP Servers và Agent

Agent-based system là một mô hình trong đó các agent – những tác tử thông minh – được thiết kế để tự động thực hiện các nhiệm vụ dựa trên mục tiêu đã được xác định trước. Mỗi agent thường được trang bị khả năng lập kế hoạch (planning), bộ nhớ (memory) để ghi nhớ thông tin từ các lần tương tác trước, và đặc biệt là khả năng sử dụng công cụ (tools). Các công cụ này có thể là API, trình duyệt, máy tính, cơ sở dữ liệu, hoặc các module chức năng cụ thể mà agent có thể gọi đến khi cần thiết. Ngoài ra, một số agent còn có khả năng code execution – tức là tự sinh mã nguồn (thường bằng Python) và thực thi để giải quyết bài toán, tính toán hoặc phân tích dữ liệu ngay trong quá trình hoạt động.

AI 13 - 04 - 2025

Cache-Augmented Generation là gì và nó có tốt hơn RAG?

  Cách thức hoạt động: Khi mô hình nhận dữ liệu đầu vào, thay vì phải truy xuất dữ liệu hoặc tính toán mọi thứ từ đầu, nó sử dụng bộ nhớ đã được tính toán sẵn (KV-cache). Bộ nhớ này chứa các thông tin liên quan mà mô hình có thể tái sử dụng trong quá trình sinh câu trả lời. Pre-computation of Data: Trước khi sử dụng, dữ liệu sẽ được tính toán và lưu vào bộ nhớ KV. Việc này giúp giảm tải cho mô hình trong quá trình xử lý và sinh văn bản. Lợi ích: Giảm thiểu độ trễ: Vì thông tin đã được tính toán và lưu trữ sẵn, quá trình sinh văn bản trở nên nhanh hơn. Tiết kiệm tài nguyên tính toán: Mô hình không cần phải truy xuất từ các cơ sở dữ liệu hoặc tính toán lại mọi thứ từ đầu.

LLama 08 - 04 - 2025

Meta ra mắt bộ ba mô hình AI Llama 4

Llama 4 là thế hệ mô hình AI đa phương thức mới, đánh dấu một bước tiến đáng kể trong lĩnh vực này. Nó được phát triển bởi Meta và được thiết kế để mang lại sự hiểu biết và tạo sinh nội dung đa dạng một cách tự nhiên. Các điểm chính bao gồm: Llama 4 Behemoth: Mô hình lớn nhất với 288 tỷ tham số và 16 chuyên gia hoạt động. Nó được huấn luyện trên một lượng lớn dữ liệu đa phương thức. Llama 4 Scout: Mô hình nhỏ hơn với 16 tỷ tham số và cửa sổ ngữ cảnh công nghiệp là 10 nghìn tokens, với tổng cộng 1098 nghìn tokens. Các mô hình Llama 4 Scout là các mô hình đầu tiên của Meta AI chỉ dựa trên kiến trúc bộ mã hóa. Các mô hình MoE hiệu quả hơn nhiều về tính toán vì chúng chỉ kích hoạt một phần nhỏ tổng số tham số cho mỗi mã thông báo. Llama 4 Maverick được đánh giá là vượt trội so với Gemini 1. 5 Flash và Mistral Large trên một loạt các chuẩn mực. Theo các đánh giá nội bộ, Llama 4 Maverick và Llama 4 Scout vượt trội hơn đáng kể so với Llama 3 trên nhiều điểm chuẩn.

Information Retrieval 08 - 03 - 2025

Information Retrieval (IR) – Hệ Thống Truy Xuất Thông Tin Trong Kỷ Nguyên Số

1. Giới thiệu về Information Retrieval (IR)  Hãy tưởng tượng bạn đang đứng trong một thư viện khổng lồ với hàng triệu quyển sách. Bạn cần tìm một quyển sách về "Trí tuệ nhân tạo", nhưng bạn không nhớ tiêu đề chính xác. Bạn sẽ làm thế nào? Nếu có một thủ thư giỏi, họ sẽ giúp bạn tìm kiếm thông tin nhanh chóng dựa trên từ khóa bạn cung cấp. Information Retrieval hoạt động giống như thủ thư đó, nhưng ở quy mô toàn cầu trên Internet.   Information Retrieval là quá trình tìm kiếm, trích xuất và xếp hạng các tài nguyên thông tin phù hợp với nhu cầu của người dùng từ một tập hợp dữ liệu lớn.     2.  Information Retrieval có từ khi nào?  1960s - 1980s: Phát triển các mô hình tìm kiếm cơ bản như Boolean Model, Vector Space Model.  

LLM 01 - 03 - 2025

Rewrite-Retrieve-Read: 1 phương pháp cải thiện hiệu suất cho LLM

Trong thế giới của Mô Hình Ngôn Ngữ Lớn, việc tối ưu hóa khả năng tiếp cận thông tin là một thách thức quan trọng. Rewrite-Retrieve-Read ra đời như một giải pháp mang tính đột phá, thay thế phương pháp truyền thống Retrieve-Then-Read, giúp cải thiện hiệu suất truy xuất thông tin của LLM. Phương pháp dùng NLP truyền thống (còn gọi là Retrieve-Then-Read) dựa vào việc tìm kiếm và cung cấp thông tin từ các kho dữ liệu bên ngoài trước khi LLM xử lý và đưa ra kết quả. Tuy nhiên, phương pháp này gặp một số vấn đề: Khoảng cách giữa truy vấn và tri thức cần thiết: Truy vấn gốc từ người dùng có thể không rõ ràng hoặc không đủ chi tiết, dẫn đến kết quả tìm kiếm không chính xác. Thông tin lỗi thời hoặc không chính xác: Dữ liệu mà LLM sử dụng có thể đã lỗi thời, trong khi nhu cầu truy xuất thông tin mới liên tục thay đổi. Trong khi đó, nếu biến đổi câu query thành "2000 movie "All Star" song" sẽ trả về kết quả truy vấn chính xác hơn.   Bước 1: Rewrite – LLM hoặc một mô hình nhỏ hơn sẽ điều chỉnh truy vấn đầu vào để phù hợp hơn với nhu cầu tìm kiếm thực tế.

RAG 11 - 01 - 2025

Cải tiến Retriever bằng Hypothetical Document Embeddings HyDE

Hiểu bối cảnh: HyDE không chỉ xử lý truy vấn một cách bề mặt mà còn dựa vào bối cảnh để tạo ra các tài liệu giả định liên quan nhất. Tối ưu hóa dữ liệu: Thay vì yêu cầu một lượng lớn dữ liệu huấn luyện, HyDE tạo ra dữ liệu giả định để giảm tải lưu trữ và tăng cường hiệu quả sử dụng. Khả năng thích ứng cao: Với các truy vấn phức tạp hoặc không rõ ràng, HyDE có thể bổ sung ngữ cảnh để đạt kết quả chính xác và chi tiết hơn. Nhận Truy Vấn Người Dùng: Người dùng đặt câu hỏi hoặc truy vấn dưới nhiều dạng khác nhau, ví dụ:

Bài Đọc Nhiều Nhất

Tổng hợp các mô hình CNN nổi tiếng - Phần 1
Tổng quan ROS cơ bản
Hướng dẫn cài đặt và thực hành Spring Boot (Phần 1)