Generative AI 19 - 06 - 2025

LiteLLM: Chuẩn hóa truy cập LLM và điều phối thông minh qua LLM Gateway

📢 SIU AI Lab hoàn thành chương trình đào tạo AI Tạo Sinh cho GAIE và SIU! 🤖🎓 🎯 Mục tiêu của chương trình: Giúp cán bộ và giảng viên nắm bắt xu hướng AI tạo sinh (generative AI) Ứng dụng hiệu quả các công cụ AI trong giảng dạy, quản lý, thiết kế bài giảng, tài liệu Gắn kết giữa công nghệ và thực tiễn giáo dục, nâng cao hiệu suất làm việc 👏 Không khí học tập sôi nổi, nhiều chia sẻ thực tiễn, và đặc biệt là tinh thần "không ngừng đổi mới để nâng cao chất lượng giáo dục" đã làm nên thành công cho khóa đào tạo.

AI 19 - 06 - 2025

LiteLLM: Chuẩn hóa truy cập LLM và điều phối thông minh qua LLM Gateway

LiteLLM được xây dựng để giải quyết trực tiếp vấn đề này. Nó đóng vai trò như một LLM Gateway – tầng trung gian giúp chuẩn hóa việc gọi LLM, điều phối truy vấn thông minh và kiểm soát chi phí trong môi trường đa mô hình. Là một REST API server tương thích hoàn toàn với OpenAI API. LiteLLM cung cấp API chuẩn OpenAI, bao gồm các endpoint phổ biến như: Nhờ đó, bất kỳ ứng dụng nào hiện đang dùng OpenAI đều có thể chuyển sang dùng Claude, Gemini, Mistral hoặc mô hình cục bộ mà không cần chỉnh sửa code. /v1/chat/completions /v1/completions /v1/embeddings /v1/chat/completions

AI 17 - 04 - 2025

LabXperience: Setup BrowserMCP để LLM điều khiển Browser của bạn

Bài viết hướng dẫn từng bước cách thiết lập và sử dụng Browser MCP, một công cụ giúp mô hình ngôn ngữ lớn (LLM) như ChatGPT hoặc Copilot tương tác trực tiếp với trình duyệt web thông qua các thao tác như truy cập trang web, điền form, click nút, trích xuất dữ liệu. . .   Biết cách cài đặt Browser MCP và cấu hình với Visual Studio Code, trình duyệt (Chrome/Edge) và Copilot. Hiểu cơ chế hoạt động của Browser MCP: cách LLM sử dụng các “tool” như browser_navigate, browser_click, browser_type,… Thực hành các truy vấn thực tế để AI thao tác trên trình duyệt như một người dùng thật. Nhận diện được tiềm năng ứng dụng của Browser MCP trong tự động hóa thao tác web, cào dữ liệu và kiểm thử phần mềm bằng AI agent.

AI 13 - 04 - 2025

Cache-Augmented Generation là gì và nó có tốt hơn RAG?

​Retrieval-Augmented Generation (RAG) là một phương pháp phổ biến trong lĩnh vực trí tuệ nhân tạo, đặc biệt trong việc tăng cường khả năng của các mô hình ngôn ngữ lớn (LLMs) bằng cách truy xuất thông tin từ các nguồn dữ liệu bên ngoài để tạo ra câu trả lời chính xác và cập nhật hơn. Tuy nhiên, RAG không phải là giải pháp duy nhất và hoàn hảo cho mọi tình huống. ​ Độ phức tạp hệ thống: Việc triển khai RAG đòi hỏi xây dựng và duy trì các hệ thống truy xuất, cơ sở dữ liệu vector, và pipeline tích hợp giữa các thành phần. Điều này làm tăng độ phức tạp và chi phí vận hành. ​ Khó khăn trong việc xử lý dữ liệu lớn: Khi làm việc với các tập dữ liệu lớn hoặc liên tục cập nhật, RAG có thể gặp khó khăn trong việc đảm bảo tính nhất quán và độ chính xác của thông tin truy xuất.   Để khắc phục những hạn chế của RAG, Cache-Augmented Generation (CAG) là một phương pháp thay thế hiệu quả. CAG hoạt động bằng cách tiền xử lý và lưu trữ thông tin cần thiết trong bộ nhớ đệm, cho phép mô hình tái sử dụng thông tin này khi cần thiết mà không phải truy xuất lại từ nguồn bên ngoài. ​ Hãy tưởng tượng bạn đang triển khai một trợ lý ảo cho nhân viên trong công ty, với mục tiêu trả lời các câu hỏi liên quan đến chính sách nội bộ như nghỉ phép, bảo hiểm, và quy trình làm việc. ​ Trong khi đó, với CAG, trước khi triển khai, bạn tiền xử lý và lưu trữ toàn bộ thông tin cần thiết (như chính sách công ty) vào bộ nhớ đệm của mô hình. Khi nhân viên đặt câu hỏi, mô hình sử dụng thông tin đã lưu trữ để trả lời ngay lập tức, không cần truy xuất dữ liệu bên ngoài.

AI 12 - 04 - 2025

So sánh MCP Servers và Agent

Agent-based system là một mô hình trong đó các agent – những tác tử thông minh – được thiết kế để tự động thực hiện các nhiệm vụ dựa trên mục tiêu đã được xác định trước. Mỗi agent thường được trang bị khả năng lập kế hoạch (planning), bộ nhớ (memory) để ghi nhớ thông tin từ các lần tương tác trước, và đặc biệt là khả năng sử dụng công cụ (tools). Các công cụ này có thể là API, trình duyệt, máy tính, cơ sở dữ liệu, hoặc các module chức năng cụ thể mà agent có thể gọi đến khi cần thiết. Ngoài ra, một số agent còn có khả năng code execution – tức là tự sinh mã nguồn (thường bằng Python) và thực thi để giải quyết bài toán, tính toán hoặc phân tích dữ liệu ngay trong quá trình hoạt động. Phân tích yêu cầu, Gọi tool hoặc viết code để xử lý, Điểm mạnh của agent là khả năng tự định hướng hành động theo chuỗi logic đa bước mà không cần sự giám sát chặt chẽ từ con người. Tuy nhiên, điều này cũng khiến việc kiểm soát và tối ưu hành vi của agent trở nên khó khăn, nhất là khi có nhiều agent cùng hoạt động song song hoặc xử lý các tác vụ trừu tượng, phức tạp. Model Context Protocol (MCP) server là một hệ thống nằm ở phía sau, giúp các mô hình ngôn ngữ lớn (LLMs) như Claude hay GPT có thể làm việc hiệu quả hơn. Thay vì để mô hình AI tự mình truy cập dữ liệu, chạy công cụ hay ghi nhớ toàn bộ cuộc trò chuyện, MCP server sẽ đảm nhận những việc đó. Nó giống như một trợ lý điều phối thông minh, chuyên xử lý các yêu cầu, theo dõi ngữ cảnh cuộc hội thoại và cung cấp đúng công cụ hoặc dữ liệu cần thiết cho mô hình AI sử dụng. Observation: LLM ghi lại điều đang xảy ra, ví dụ như câu hỏi của người dùng.

Bài Đọc Nhiều Nhất

Tổng hợp các mô hình CNN nổi tiếng - Phần 1

Tổng quan ROS cơ bản

Hướng dẫn cài đặt và thực hành Spring Boot (Phần 1)