Model Context Protocol (MCP) – Giao thức cung cấp ngữ cảnh cho mô hình AI¶
MCP là gì?¶
Model Context Protocol (MCP) là một giao thức tiêu chuẩn mở giúp kết nối các mô hình ngôn ngữ lớn (LLM) với các nguồn dữ liệu và công cụ bên ngoài một cách thống nhất. Nói cách khác, MCP giống như cổng USB-C cho ứng dụng AI – nó định nghĩa một cách thức chuẩn hóa để kết nối mô hình AI với nhiều loại dữ liệu, dịch vụ và công cụ khác nhau.
Thay vì phải xây dựng tích hợp tùy chỉnh cho từng nguồn dữ liệu riêng lẻ, MCP cho phép nhà phát triển tạo kết nối hai chiều an toàn giữa trợ lý AI và các hệ thống nơi dữ liệu đang tồn tại (ví dụ: kho tài liệu, công cụ doanh nghiệp, môi trường phát triển, v.v.).
MCP bao gồm hai thành phần chính: MCP client (tích hợp trong ứng dụng AI/LLM để tương tác với bên ngoài) và MCP server (chương trình trung gian nhằm kết nối với dữ liệu hoặc chức năng của một hệ thống bên ngoài cho LLM sử dụng). Thông qua MCP, mô hình AI có thể đọc/ghi dữ liệu từ các ứng dụng kết nối, cũng như gọi thực thi các chức năng mà ứng dụng đó cung cấp, như thể mô hình đang dùng một “bộ công cụ” mở rộng vậy.
Lý do nên sử dụng MCP¶
Các mô hình AI hiện đại thường bị cô lập với dữ liệu thực tế – chúng không tự truy cập được vào cơ sở tri thức của doanh nghiệp hay các ứng dụng nội bộ nếu không có tích hợp đặc biệt. Trước đây, muốn cấp dữ liệu cho AI, mỗi nguồn dữ liệu (từ Slack, Google Drive cho tới database nội bộ) đều cần lập trình tích hợp riêng, rất tốn công và khó mở rộng khi số lượng nguồn tăng lên.
MCP ra đời để giải quyết thách thức này. Nó chuẩn hóa giao tiếp giữa AI và các nguồn dữ liệu, thay thế hàng loạt tích hợp rời rạc bằng một giao thức chung. Kết quả là một cách tiếp cận đơn giản và tin cậy hơn để cung cấp cho AI quyền truy cập dữ liệu cần thiết một cách có hệ thống.
Lợi ích cụ thể khi dùng MCP bao gồm:
-
Loại bỏ tích hợp tùy chỉnh phức tạp: Nhờ có một giao thức chung, MCP xóa bỏ nhu cầu phải viết code tích hợp riêng cho từng công cụ và từng mô hình AI. Mô hình và ứng dụng chỉ cần tuân theo MCP là có thể “cắm” vào bất cứ dịch vụ nào cũng hỗ trợ MCP. Điều này giúp chúng ta mở rộng khả năng của trợ lý AI dễ dàng chỉ bằng cách bổ sung thêm các
MCP servermới, thay vì sửa code mô hình. -
Tiêu chuẩn mở với hệ sinh thái phong phú: MCP là mã nguồn mở và miễn phí để mọi người cùng đóng góp, triển khai. Hiện đã có nhiều pre-built integrations để LLM sử dụng ngay, và một cộng đồng mở tích cực xây dựng thêm các
MCP servercho đủ loại hệ thống (từ kho file, cơ sở dữ liệu, ứng dụng doanh nghiệp đến công cụ lập trình). Nhờ đó, bạn có thể chuyển đổi giữa các ứng dụng khác nhau mà vẫn mang theo được ngữ cảnh cho mô hình AI của mình, không lo bị mất context khi đổi công cụ. -
Kết nối an toàn, hai chiều: Giao thức MCP được thiết kế chú trọng bảo mật và phân quyền.
MCP client(ví dụ như ứng dụng AI) có thể yêu cầu hành động và nhận kết quả từMCP server, trong khiMCP servercó thể kiểm soát mức độ dữ liệu và chức năng được phép truy cập. Tất cả tuân theo định dạng thông điệp chuẩn của giao thức, đảm bảo tính nhất quán và an toàn khi nhiều bên cùng triển khai.
Tóm lại, MCP khẳng định tầm quan trọng của dữ liệu ngữ cảnh đối với LLM. Nó tạo nền móng để các mô hình AI thế hệ mới có thể tích hợp sâu với ứng dụng thực tế, cung cấp đầu ra hữu ích, chính xác và phù hợp ngữ cảnh người dùng hơn.
Cách cấu hình MCP với VS Code¶
MCP đang dần được hỗ trợ trong các công cụ phát triển. Đáng chú ý, Visual Studio Code (từ phiên bản 1.102) đã tích hợp sẵn hỗ trợ MCP thông qua GitHub Copilot Chat (chế độ Agent). Điều này cho phép chúng ta mở rộng trải nghiệm chat với AI trong VS Code bằng các công cụ MCP – từ kết nối cơ sở dữ liệu, gọi API, đến thực thi những tác vụ chuyên biệt – ngay trong cửa sổ chat.
Nói cách khác, khi bạn bật Copilot Chat ở chế độ Agent và nhập prompt, mô hình AI có thể tự động kích hoạt các “công cụ” MCP đã cấu hình (như đọc file, truy vấn DB, gọi web service, v.v.) để phục vụ yêu cầu của bạn.
Các bước cấu hình MCP trong VS Code:¶
-
Cài đặt yêu cầu: Đầu tiên, hãy đảm bảo bạn đã cập nhật VS Code lên bản mới nhất và có quyền truy cập tính năng Copilot Chat (yêu cầu đăng ký Copilot). MCP hoạt động thông qua Copilot Chat, do đó bạn cần có GitHub Copilot trong VS Code.
-
Thêm MCP server: VS Code cung cấp vài cách để thêm cấu hình một
MCP server(tức là kết nối đến một nguồn dữ liệu cụ thể):- Cài đặt trực tiếp: Bạn có thể truy cập danh sách MCP servers được đề xuất trên VS Code và bấm “Install” bên cạnh server mong muốn. VS Code sẽ tự động thêm cấu hình cho server đó vào môi trường của bạn.
- Theo workspace: Tạo file cấu hình
.vscode/mcp.jsontrong thư mục dự án. File này liệt kê cácMCP servermà bạn muốn dùng cho dự án hiện tại, và có thể commit lên repo để chia sẻ cho cả nhóm cùng dùng cho đồng bộ. VS Code cung cấp sẵn lệnh “MCP: Add Server” để hỗ trợ tạo nhanh mục cấu hình trong file này. Ví dụ, bạn có thể thêm cấu hình server Perplexity API với API key trongmcp.jsonđể dùng nó như một công cụ hỗ trợ tìm kiếm. - Theo người dùng: Bạn cũng có thể thêm
MCP servervào cấu hình chung của người dùng (User Settings) để server đó khả dụng trong mọi workspace của bạn. Chạy lệnh “MCP: Open User Configuration” để mở (hoặc tạo) filemcp.jsontoàn cục và thêm cấu hình tương tự. Cách này hữu ích cho những công cụ bạn muốn ở đâu cũng có, ví dụ server tích hợp GitHub hay Jira dùng chung cho mọi dự án. - Tự động phát hiện: VS Code có thể tự động nhận diện các
MCP servermà bạn đã cấu hình ở công cụ khác (ví dụ Claude Desktop) nếu bật tùy chọnchat.mcp.discovery.enabledtrong settings. Tính năng này giúp tái sử dụng cấu hình có sẵn, tránh phải khai báo lại nhiều nơi.
-
Kích hoạt và sử dụng: Sau khi thêm xong cấu hình, VS Code sẽ hiển thị danh sách các
MCP serverđã cài (trong panel MCP Servers - Installed ở khu vực Extensions). Khi bạn bắt đầu phiên chat Copilot, mô hình sẽ khám phá các tool mà mỗi MCP server cung cấp (VD: server GitHub cung cấp tool tạo Pull Request, server Database cung cấp tool query, v.v.). Bạn có thể gọi các lệnh này bằng cách yêu cầu trong ngữ cảnh chat (mô hình sẽ tự chọn công cụ phù hợp nếu cần).
Lưu ý: Lần đầu chạy một
MCP server, VS Code sẽ hỏi bạn xác nhận độ tin cậy của server đó, bởi vì về bản chấtMCP serversẽ có thể chạy code tùy ý trên máy bạn khi phục vụ yêu cầu từ AI. Hãy chỉ thêm những server từ nguồn đáng tin cậy và xem xét cấu hình của chúng một cách cẩn thận trước khi cho phép chạy. Trong các quy định về việc sử dụng AI trong công việc tại Sun*, đã có hướng dẫn cụ thể về việc những MCP nào là được phép sử dụng trong công việc.
Sau khi cấu hình thành công, trợ lý AI (Copilot Chat) trong VS Code của bạn sẽ trở nên mạnh mẽ hơn rất nhiều. Nó không chỉ dựa vào ngữ liệu huấn luyện tĩnh, mà còn có thể tương tác trực tiếp với môi trường làm việc của bạn. Chẳng hạn, bạn có thể yêu cầu:
“Tạo branch mới, đọc file README và tạo một issue Jira mới với nội dung từ file đó”
Mô hình sẽ lần lượt dùng MCP server Git/GitHub để tạo branch, dùng server File hoặc GitHub để đọc file, rồi dùng server Atlassian để tạo issue – tất cả thực hiện qua giao tiếp MCP dưới nền.
Các MCP phổ biến nên sử dụng¶
Nhờ sự hỗ trợ từ cộng đồng và các hãng lớn, hệ sinh thái MCP đã có nhiều MCP server cho các dịch vụ phổ biến. Dưới đây là một số MCP server tiêu biểu mà đội ngũ kỹ sư tại Sun* có thể cân nhắc sử dụng, kèm theo chức năng mà chúng cung cấp:
-
Slack: Cho phép AI tương tác với không gian làm việc Slack. Ví dụ: quản lý kênh, gửi tin nhắn, theo dõi và phản hồi thread, thêm reaction, truy xuất thông tin người dùng trong workspace Slack của bạn. Với MCP Slack, trợ lý AI có thể tự động đọc lịch sử các kênh để lấy ngữ cảnh, gửi thông báo hoặc trả lời tin nhắn thay cho bạn dựa trên yêu cầu được giao.
-
GitHub và Git: Đây là những MCP quan trọng hỗ trợ quy trình phát triển.
MCP GitHubcung cấp các công cụ để liệt kê repository, lấy file, tạo Pull Request, quản lý issues, v.v. thông qua GitHub API. CònMCP Gitcho phép LLM tương tác với kho mã nguồn cục bộ của dự án – ví dụ đọc và tìm kiếm nội dung file, tạo commit, checkout branch, thậm chí đẩy code lên repo từ máy cục bộ nếu được cấu hình cho phép push. Kết hợp hai server này, AI có thể hỗ trợ bạn từ việc đọc hiểu code, soạn thảo code cho đến tự động hóa thao tác git. -
Google Drive: Tích hợp Google Drive cho phép AI truy cập và tìm kiếm tệp tin trên Google Drive của bạn. Mô hình có thể duyệt qua các thư mục, đọc nội dung tài liệu, hoặc tìm kiếm file theo từ khóa để lấy thông tin trả lời người dùng.
-
PostgreSQL (Database):
MCP PostgreSQLcung cấp khả năng kết nối cơ sở dữ liệu PostgreSQL (ở chế độ read-only). AI có thể thực hiện các truy vấn SQL trên database của bạn và trả về kết quả, đồng thời có thể tự động lấy thông tin schema (cấu trúc bảng, cột) để hỗ trợ viết truy vấn chính xác. (Ngoài ra, còn có MCP cho nhiều hệ quản trị CSDL khác nhưSQLite,Redisv.v.). -
Playwright: Đây là một MCP server sử dụng Playwright để cung cấp khả năng tương tác tự động với trình duyệt web cho các mô hình AI. LLM có thể điều khiển trình duyệt, thực thi các thao tác như click, điền biểu mẫu, scraping nội dung và trích xuất thông tin từ web thông qua cấu trúc snapshot accessibility, mà không cần xử lý hình ảnh phức tạp, từ đó có thể hỗ trợ các công việc như: Tự động hóa kiểm thử giao diện (UI testing), Trích xuất dữ liệu từ trang web không có API, Hỗ trợ tạo script cho nhiệm vụ web lặp đi lặp lại.
-
Figma Dev Mode: MCP server này được Figma cung cấp dưới dạng tính năng Dev Mode MCP, cho phép AI agent trong VS Code truy cập trực tiếp thông tin thiết kế từ Figma. Thay vì chỉ nhìn hình ảnh, AI sẽ hiểu được component tree, thiết kế token, layout, và thậm chí cả code được liên kết thông qua Code Connect. Điều này cực kỳ hữu ích khi bạn cần chuyển nhanh thiết kế sang code front-end chuẩn xác theo design system. Các tính năng chính của Dev Mode MCP có thể kể ra như: Trích xuất component, biến, layout, màu sắc,… từ Figma design, Tạo code chính xác từ selection frame, Giữ đồng bộ với design system để đảm bảo code được sinh ra đúng và thống nhất. Tuy nhiên một nhược điểm lớn đó là để sử dụng thì cần phải có account Figma trả phí, có dùng được Dev Mode.
-
Context7: Đây là MCP giúp AI được sử dụng cung cấp tài liệu và ví dụ code cập nhật theo phiên bản thư viện, ngay trong prompt tương tác. Khi bạn cần hỗ trợ lập trình theo một thư viện cụ thể, Context7 MCP sẽ đưa vào ngữ cảnh đầy đủ nhất có thể, nâng cao chất lượng gợi ý đoạn code hoặc documentation.
Ngoài những cái tên trên, hệ sinh thái MCP còn rất nhiều integrations phong phú khác. Ví dụ: MCP cho dịch vụ lưu trữ khác (Dropbox, OneDrive), cho CRM (HubSpot), cho DevOps (Netlify, Cloudflare), cũng như nhiều hệ thống doanh nghiệp khác. Danh sách này đang ngày một mở rộng khi nhiều công ty tham gia đóng góp connectors cho nền tảng MCP.
Tại Sun*, chúng ta cũng đang nghiên cứu phát triển các MCP server dành riêng cho các hệ thống nội bộ, trong đó nổi bật nhất là Morpheus, để từ đó có thể cung cấp context về design, specs, test case... của từng màn hình cho các hệ thống AI Agent, giúp chúng có thể thực hiện các tác vụ viết code, viết test được hiệu quả hơn.
Nhìn chung, Model Context Protocol đang mở ra một hướng mới để tích hợp AI vào công việc hàng ngày của kỹ sư: cho phép mô hình AI tiếp cận trực tiếp công cụ và dữ liệu mà vốn chúng ta vẫn dùng hằng ngày. Bằng cách áp dụng MCP và các tích hợp phổ biến nêu trên, đội ngũ kỹ sư Sun* có thể xây dựng và khai thác các trợ lý AI thông minh hơn, hiểu biết ngữ cảnh hơn, từ đó tăng hiệu suất làm việc và giảm tải các tác vụ lặp đi lặp lại trong quy trình phát triển phần mềm.