Skip to content

Giới thiệu về GitHub Copilot

GitHub Copilot là gì?

GitHub Copilot là một trợ lý lập trình viên trí tuệ nhân tạo (AI) do GitHub phát triển. Được mệnh danh là “AI pair programmer” (bạn lập trình AI), Copilot hỗ trợ lập trình viên viết code nhanh hơn và với ít công sức hơn bằng cách sử dụng bối cảnh từ code và comment để đề xuất các đoạn code – từ những dòng code riêng lẻ cho đến cả hàm hoàn chỉnh – một cách tức thì . Copilot tích hợp trực tiếp vào các môi trường phát triển (IDE) phổ biến như Visual Studio Code, Visual Studio, các IDE của JetBrains, Neovim, v.v., giúp gợi ý code theo thời gian thực khi bạn đang code. Nhờ các tính năng mạnh mẽ này, Copilot đã được chứng minh có thể giúp lập trình viên tăng tốc độ viết code lên đáng kể, góp phần đẩy nhanh tiến độ phát triển phần mềm và nâng cao trải nghiệm của lập trình viên.

Mặc dù rất hữu ích, GitHub Copilot không phải lúc nào cũng hoàn hảo. Các gợi ý do AI đưa ra đôi khi có thể không chính xác hoặc chưa phù hợp ngữ cảnh, do đó lập trình viên cần xem xét, kiểm thử và chỉnh sửa lại mã nguồn được đề xuất khi cần thiết. Nói cách khác, Copilot là một công cụ hỗ trợ đắc lực giúp bạn tiết kiệm thời gian và tập trung vào những phần quan trọng, nhưng không thay thế hoàn toàn vai trò của lập trình viên. Bên cạnh đó, kỹ năng sử dụng Copilot một cách hiệu quả cũng là yếu tố quan trọng để tận dụng tối đa sức mạnh của công cụ này.

Copilot tại Sun*: Hành trình triển khai và khuyến khích sử dụng

Tại Sun*, GitHub Copilot đã được đưa vào thử nghiệm từ cuối năm 2023 trên quy mô nhỏ. Những kết quả tích cực ban đầu từ nhóm thử nghiệm đã tạo tiền đề để công ty quyết định mở rộng triển khai công cụ này. Vào đầu năm 2025, Sun* đã xây dựng kế hoạch phổ cập việc sử dụng GitHub Copilot trên toàn công ty, coi đây là một giải pháp chiến lược nhằm nâng cao năng suất trong phát triển phần mềm. Đến tháng 7/2025, toàn bộ kỹ sư phần mềm trong công ty đều đã được cấp tài khoản GitHub Copilot (gói Business) để sử dụng trong công việc hàng ngày. Bên cạnh đó, những vị trí đặc thù khác như BrSE (Bridge System Engineer), QA (Quality Assurance)... cũng có thể được xem xét cấp tài khoản Copilot Business nếu có nhu cầu chính đáng.

Sun* khuyến khích tất cả mọi người tận dụng triệt để các tính năng của GitHub Copilot trong công việc, đồng thời tích cực chia sẻ kiến thức và kinh nghiệm trong việc sử dụng công cụ này. Sự trao đổi nội bộ về cách dùng Copilot hiệu quả sẽ giúp cả tập thể cùng cải thiện năng suất lao động, nâng cao chất lượng quy trình phát triển phần mềm, và thúc đẩy văn hóa học hỏi đổi mới trong công ty. Việc áp dụng AI như Copilot trên quy mô toàn công ty thể hiện sự cam kết của Sun* trong việc trang bị cho nhân viên những công nghệ tiên tiến nhất, tạo cảm hứng để mỗi kỹ sư có thể phát huy tối đa năng lực sáng tạo của mình.

Các mô hình AI tích hợp trong GitHub Copilot

Một trong những điểm mạnh của GitHub Copilot ngày nay là khả năng tích hợp nhiều mô hình AI khác nhau để phục vụ nhu cầu đa dạng của người dùng. Ban đầu, Copilot được vận hành dựa trên OpenAI Codex (một biến thể của GPT-3) . Hiện tại, Copilot đã được nâng cấp với những mô hình AI tiên tiến hơn, bao gồm cả các phiên bản thuộc họ GPT của OpenAI cũng như các mô hình từ những nhà cung cấp khác:

Mô hình mặc định

Tính đến tháng 4/2026, trên các gói trả phí (Copilot Pro, Pro+, Business, Enterprise), Copilot coi GPT-5 mini, GPT-4.1GPT-4o là các mô hình “included” cho code completion và hầu hết tương tác chat cơ bản. Các mô hình này không bị trừ premium requests trên các gói trả phí. Với GPT-4.1, thì đây là mô hình đã được tinh chỉnh để hỗ trợ viết code hiệu quả, cung cấp cân bằng tốt giữa tốc độ và chất lượng gợi ý. Mô hình này có khả năng hiểu ngữ cảnh tốt, giúp lập trình viên nhận được các gợi ý code chính xác và phù hợp với nhu cầu của mình. Còn GPT-5-mini là một trong những mô hình mới nhất của OpenAI được công bố đầu tháng 8/2025, đây cũng là mô hình duy nhất trong danh sách các mô hình "miễn phí" có khả năng suy luận. Tuy nhiên do nó là một phiên bản cỡ nhỏ của GPT-5, nên hiệu quả có phần hạn chế hơn nhiều.

Trong nhiều trường hợp phức tạp hoặc khi cần phân tích sâu hơn, người dùng có thể lựa chọn các mô hình khác mạnh mẽ hơn.

Các mô hình OpenAI khác

Ngoài nhóm mô hình included nói trên, trong gói Business tại Sun* hiện đang bật thêm các mô hình premium sau từ OpenAI:

  • GPT-5.4: flagship mới nhất của OpenAI trong Copilot, GA từ tháng 3/2026. Kiến trúc hợp nhất (unified architecture) kết hợp reasoning + coding + agentic trong một mô hình duy nhất. Đạt SWE-bench Pro 57.7%, vượt trội trên nhiều benchmark về code và tác vụ doanh nghiệp phức tạp. Hệ số nhân .
  • GPT-5.3-Codex: mô hình thuộc dòng Codex, được tối ưu cho agentic coding và các workflow dài hơi. Phù hợp khi cần agent xử lý tác vụ phức tạp trên codebase lớn. Hệ số nhân .
  • GPT-5.4 mini: phiên bản nhỏ gọn của GPT-5.4, nhanh và nhẹ, phù hợp cho việc khám phá codebase (codebase exploration) và các tác vụ cần phản hồi tức thì mà không muốn tiêu tốn nhiều premium. Hệ số nhân 0.33× (3 lần dùng mới tính 1 premium request).

Lưu ý: GitHub Copilot hỗ trợ thêm nhiều mô hình OpenAI khác (như GPT-5, GPT-5.2-Codex...) tuy nhiên admin của Sun* hiện chỉ bật các mô hình nêu trên. Danh sách này có thể thay đổi theo chính sách của công ty.

Mô hình Anthropic Claude

GitHub Copilot hiện tích hợp một loạt mô hình Claude 4.x do Anthropic phát triển. Danh sách chính (tính đến tháng 4/2026) bao gồm:

Trong gói Business tại Sun*, các mô hình Claude đang được bật bao gồm:

  • Claude Sonnet 4.6: thế hệ mới nhất của dòng Sonnet, “xương sống” cho đa số tác vụ general + coding. Năng lực vượt trội về coding và agent, context window rất lớn. Đây là lựa chọn tốt nhất về tỉ lệ chất lượng/chi phí trong danh sách premium. Hệ số nhân .
  • Claude Haiku 4.5: bản nhẹ, rất nhanh, phù hợp cho tác vụ “hỏi đáp nhanh”, refactor/giải thích các file code nhỏ, hoặc bổ sung comment. Hệ số nhân 0.33× (3 lần dùng mới tính 1 premium request).
  • Claude Opus 4.6: thế hệ mới nhất của dòng Opus, được Anthropic quảng bá là “model thông minh nhất” của họ tại thời điểm hiện tại. Cực mạnh về reasoning và coding. Hệ số nhân — cân nhắc kỹ về chi phí premium trước khi sử dụng.
  • Claude Opus 4.5: thế hệ trước của Opus 4.6, vẫn rất mạnh trong các tác vụ coding và bài toán doanh nghiệp phức tạp. Hệ số nhân .

Lưu ý: Mô hình Claude Opus 4.1 (10×) không khả dụng trong gói Business tại Sun*. Các mô hình Claude Sonnet 4, Sonnet 4.5 (thế hệ cũ hơn) cũng không nằm trong danh sách được bật hiện tại. (Do hầu như không có usecase nào trong coding mà cần đến những model này)

Các mô hình cũ như Claude Sonnet 3.5, Sonnet 3.7 hay Opus 4 đã lần lượt bị retire khỏi Copilot trong giai đoạn 10–11/2025 và được khuyến nghị thay thế bằng các model 4.x mới hơn.

Mô hình Google Gemini

Copilot cũng đã bổ sung các mô hình từ Google. Trong gói Business tại Sun*, hiện đang bật:

  • Gemini 3.1 Pro (Preview): thế hệ mới nhất của dòng Gemini Pro, thay thế Gemini 3 Pro (đã bị deprecated tháng 3/2026). Context window lên tới 1M token, kết quả benchmark vượt trội so với thế hệ trước trên các bài test reasoning & coding. Hệ số nhân .

Lưu ý: Một số mô hình Google khác như Gemini 2.5 Pro, Gemini 3 Flash tồn tại trên Copilot nhưng hiện cũng không được bật trong gói Business tại Sun*. (Do hầu như không có usecase nào trong coding mà cần đến những model này).

Cách lựa chọn mô hình phù hợp

Với Copilot Chat, người dùng có thể chọn thủ công mô hình AI mà mình muốn tương tác trong từng ngữ cảnh. Danh sách các mô hình khả dụng trải rộng từ OpenAI GPT-4.1, GPT-5-mini (mặc định) cho đến Claude và Gemini như kể trên. Việc hoán đổi giữa các mô hình này giúp lập trình viên tùy biến trải nghiệm: có thể chọn mô hình nhanh hơn cho những tác vụ đơn giản cần phản hồi tức thì, hoặc chọn mô hình mạnh hơn khi cần giải quyết vấn đề phức tạp đòi hỏi độ chính xác và chiều sâu. Chẳng hạn, bạn có thể dùng GPT-4.1 để “nhanh gọn” hoàn thành một đoạn code đơn giản, rồi chuyển sang Claude Sonnet 4.6 hoặc Gemini 3.1 Pro khi cần phân tích và viết một thuật toán phức tạp. Sự linh hoạt này mang lại giá trị lớn, nhưng đồng thời người dùng cũng cần lưu ý đến yếu tố chi phí và giới hạn khi sử dụng các mô hình cao cấp, như sẽ đề cập dưới đây.

Về cơ bản, chúng ta có thể follow theo một chiến lược khá đơn giản mà hiệu quả là:

  1. Bắt đầu bằng GPT-4.1 hoặc GPT-5-mini cho mọi việc thường ngày. Bạn hầu như không cần đến những mô hình premium cho tác vụ hỏi đáp thông thường, hãy để dành premium request cho những tác vụ Agent phức tạp.
  2. Chuyển sang các model mạnh hơn (GPT-5.4, Claude Sonnet 4.6, Gemini 3.1 Pro, GPT-5.3-Codex) khi cần chạy Agent xử lý phức tạp trên codebase lớn. Các model này đều có hệ số 1×.
  3. Tận dụng các model 0.33× (Claude Haiku 4.5, GPT-5.4 mini) khi cần tiết kiệm premium mà vẫn cần model không phải mặc định.
  4. Sử dụng tính năng Auto Model Selection để Copilot tự chọn model phù hợp — ngoài sự tiện lợi, bạn còn được giảm 10% multiplier so với chọn thủ công.
  5. Luôn để ý quota premium và multiplier để tránh “cháy” request quá sớm, như sẽ trình bày ở phần tiếp theo.

Giá trị và giới hạn của gói GitHub Copilot Business

Việc Sun* sử dụng GitHub Copilot Business mang lại nhiều lợi ích rõ rệt so với việc dùng bản Free hoặc các gói cá nhân, đồng thời đi kèm một số giới hạn nhất định về mặt sử dụng mô hình AI cao cấp.

Những giá trị nổi bật của Copilot Business

  • Không giới hạn với các mô hình cơ bản (included models): Mỗi tài khoản Copilot Business tại Sun* được phép sử dụng không giới hạn các tính năng đề xuất code tự động (code completion) và chat với các mô hình AI “included” là GPT-5 mini, GPT-4.1 và GPT-4o. Nói cách khác, bạn có thể nhận gợi ý code liên tục và trao đổi với Copilot Chat bao nhiêu lần tùy thích mà không lo vượt hạn mức, miễn là sử dụng các mô hình included này (hoặc để Auto nhưng Copilot quyết định chỉ dùng included). Điều này rất quan trọng vì GPT-5-mini và GPT-4.1 hiện đã đủ mạnh và đáp ứng được một số nhu cầu hàng ngày trong coding.

  • Truy cập tính năng nâng cao: Gói Business mở khóa đầy đủ các tính năng mới nhất của Copilot: bạn có Copilot Chat tích hợp trong IDE, Copilot Code Review (tự động comment/review trong Pull Request), Copilot coding agent (chế độ Agent tự động thực hiện các tác vụ phức tạp như viết code, chạy test, chỉnh sửa và tạo PR), Copilot CLI, Copilot trong Terminal, GitHub Mobile, GitHub Desktop, Spark, Copilot Spaces, cũng như khả năng tích hợp MCP và custom agents. Nhờ vậy, lập trình viên Sun* có thể tận dụng gần như toàn bộ hệ sinh thái AI mà GitHub cung cấp để tăng tốc độ làm việc và nâng cao chất lượng code.

  • Quản lý và bảo mật ở cấp tổ chức: Ở cấp độ tổ chức, Copilot Business cho phép Sun* quản lý tập trung việc cấp phép và thiết lập chính sách AI. Chẳng hạn, công ty có thể cấu hình chính sách với mã nguồn riêng tư, hạn chế gợi ý trùng với mã nguồn public, điều chỉnh việc bật/tắt các mô hình premium, cũng như thiết lập ngân sách (budget) cho premium requests. Các admin có thể theo dõi việc sử dụng Copilot trong toàn tổ chức thông qua báo cáo, từ đó đánh giá hiệu quả, kiểm soát chi phí và đảm bảo tuân thủ các yêu cầu bảo mật.

Giới hạn – Premium Requests và cách sử dụng hợp lý

Có một điểm cần lưu ý trong gói Copilot Business là khái niệm Premium Requests. Đây là cơ chế giới hạn số lần sử dụng những mô hình AI không phải mặc định hoặc các tính năng AI nâng cao đòi hỏi nhiều tài nguyên.

Hạn mức Premium Requests: Mỗi người dùng trong gói Business được 300 premium requests mỗi tháng mà không tính thêm phí. Hạn mức này được reset vào ngày đầu tiên mỗi tháng. Premium Request được tính khi bạn gọi các mô hình không bao gồm trong gói cơ bản. Theo GitHub, bất kỳ yêu cầu nào gửi tới mô hình khác GPT-4.1 (và GPT-4o, GPT-5-mini) đều được coi là premium. Ví dụ, khi trong Copilot Chat bạn chuyển sang dùng Claude Sonnet 4.6 hoặc Gemini 3.1 Pro, mỗi lần hỏi-đáp sẽ tiêu tốn 1 premium request. Bên cạnh đó, GitHub Copilot có một chính sách rất đặc biệt trong Agent Mode, khi chỉ tính 1 premium request cho mỗi lần user gửi prompt, tức mặc dù trong flow mà agent xử lý, có thể phát sinh nhiều lần gọi đến các mô hình cao cấp, thì user vẫn chỉ bị trừ 1 request duy nhất cho toàn bộ quá trình. Điều này rất có lợi khi bạn cần chạy các workflow phức tạp mà không muốn tốn quá nhiều request.

Mỗi premium request được tính theo 2 yếu tố: featuremodel multiplier:

  • Theo feature:
  • Copilot Chat: mỗi prompt (ask/edit/agent/plan) = 1 premium request × model multiplier.
  • Copilot CLI: mỗi prompt = 1 premium request × multiplier.
  • Copilot code review: mỗi lần Copilot review PR (được assign) hoặc review code trong IDE = 1 premium request × multiplier.
  • Copilot coding agent:
    • 1 premium request cho mỗi session (khi bạn yêu cầu tạo PR hoặc thay đổi một PR hiện có),
    • +1 request cho mỗi real-time steering comment trong session đó, cũng nhân với multiplier tương ứng.
  • Spark: mỗi prompt cố định là 4 premium requests (× multiplier).
  • Copilot Spaces: mỗi prompt = 1 premium request × multiplier.
  • OpenAI Codex integration (preview): mỗi prompt = 1 premium request × multiplier.

  • Theo model multiplier: Mỗi mô hình AI trong Copilot được gán một hệ số nhân (multiplier) khác nhau, phản ánh mức độ tiêu tốn tài nguyên của mô hình đó. Hệ số này sẽ nhân với số premium requests cơ bản để tính tổng số request bị trừ. Cụ thể:

  • : GPT-5 mini, GPT-4.1, GPT-4o → không trừ premium.
  • 0.33×: Claude Haiku 4.5, GPT-5.4 mini → 3 lần dùng mới tính 1 premium request.
  • : GPT-5.4, GPT-5.3-Codex, Claude Sonnet 4.6, Gemini 3.1 Pro.
  • : Claude Opus 4.6, Claude Opus 4.5 → mỗi lần dùng tính 3 premium requests.

Nếu bạn sử dụng tính năng Auto Model Selection (để Copilot tự chọn model), bạn sẽ được giảm 10% multiplier. Ví dụ: Sonnet 4.6 sẽ chỉ tính 0.9× thay vì 1×.

Bảng trên chỉ liệt kê các mô hình đang được bật trong gói Business tại Sun*. Danh sách đầy đủ các mô hình mà Copilot hỗ trợ có thể tham khảo tại tài liệu chính thức của GitHub.

Như vậy, bất kỳ yêu cầu nào gửi tới mô hình khác GPT-5 mini / GPT-4.1 / GPT-4o đều được coi là premium và sẽ trừ quota theo multiplier tương ứng. Ví dụ: một lần hỏi bằng Sonnet 4.6 trong Chat = 1 premium request; một lần hỏi bằng Opus 4.6 = 3 premium requests.

Khi hết premium requests thì chuyện gì xảy ra?

  • Premium requests không được cộng dồn sang tháng sau; đến đầu tháng (00:00 UTC ngày 1) sẽ reset.
  • Nếu bạn dùng hết 300 premium request:
  • Bạn vẫn có thể tiếp tục dùng Copilot với các mô hình included (GPT-5 mini, GPT-4.1, GPT-4o) cho inline suggestion, chat và agent không giới hạn (nhưng có thể bị rate limiting giờ cao điểm).
  • Bạn không thể dùng mô hình premium thêm nữa, trừ khi admin của organization bật chính sách “Premium request paid usage” và cho phép vượt budget. Các request bổ sung sẽ bị tính phí phát sinh là $0.04 USD mỗi request.

Với giới hạn trên, làm thế nào để sử dụng Copilot một cách hiệu quả và hợp lý? Dưới đây là một số lời khuyên cho kỹ sư Sun*:

  • Ưu tiên mô hình mặc định cho tác vụ thường ngày: Hãy tận dụng GPT-4.1 hoặc GPT-5-mini (mô hình mặc định) cho phần lớn các tác vụ lập trình hàng ngày của bạn. Đây là mô hình đã được tối ưu cho việc code, mạnh mẽ và không tính vào hạn mức premium của bạn. Trong nhiều trường hợp, GPT-4.1 và GPT-5-mini đủ khả năng cung cấp những gợi ý chất lượng và hỗ trợ bạn hoàn thành công việc nhanh hơn.
  • Chỉ dùng mô hình cao cấp khi thực sự cần thiết: Trong một số tình huống đặc thù – ví dụ: bạn gặp một bài toán phức tạp, cần phân tích logic sâu, hoặc cần xử lý ngữ cảnh code rất lớn – bạn có thể cân nhắc chuyển sang các mô hình cao cấp hơn như Claude Sonnet 4.6, GPT-5.3-Codex hoặc GPT-5.4 để tận dụng sức mạnh AI tối đa. Tuy nhiên, hãy nhớ rằng mỗi lượt sử dụng các mô hình này sẽ trừ vào 300 premium requests của bạn. Vì vậy, đừng lạm dụng chúng cho những việc đơn giản.

Lưu ý: Hạn chế "không được công bố" về chất lượng mô hình GPT-4.1 trong Copilot.

Mặc dù GPT-4.1 được GitHub quảng cáo là miễn phí và không giới hạn trong gói Business, rất nhiều lập trình viên phản ánh rằng chất lượng của mô hình này trong Copilot tụt dốc rõ rệt khi xử lý ngữ cảnh dài hoặc các tác vụ phức tạp, đặc biệt là ở chế độ Agent mode. Các thử nghiệm nội bộ tại bộ phận R&D của Sun* cũng cho thấy GPT-4.1 trong Copilot thường cho kết quả kém ổn định và kém chính xác hơn so với GPT-4.1 được gọi trực tiếp qua OpenAI API, nhất là khi chạy các workflow agent nặng—kết quả phù hợp với nhận xét của cộng đồng rằng Copilot “yếu hơn ChatGPT” trong nhiều tình huống. Một số người dùng từng thấy thông báo lỗi “context_length_exceeded – 8 192 tokens”, dù tài liệu công bố GPT-4.1/GPT-4o hỗ trợ cửa sổ 128k ~ 1m token, cho thấy Copilot có thể đang giới hạn context length để tiết kiệm chi phí. Ngoài ra, nhiều thử nghiệm cũng cho thấy việc chất lượng đầu ra dao động đáng kể theo thời điểm trong ngày—cùng một prompt nhưng vào giờ cao điểm buổi chiều có thể cho kết quả “nghèo nàn” hơn buổi sáng, hàm ý có cơ chế điều tiết tài nguyên theo tải hệ thống.

  • Theo dõi hạn mức sử dụng: GitHub Copilot cung cấp công cụ giúp bạn theo dõi lượng premium request đã dùng trong tháng. Bạn có thể kiểm tra ngay trên biểu tượng Copilot trong IDE (ví dụ VS Code) – thanh trạng thái sẽ hiển thị bạn đã dùng bao nhiêu % quota premium trong tháng. Hãy tập thói quen quan sát chỉ số này, đặc biệt khi bạn thường xuyên dùng các mô hình cao cấp, để tránh việc vô tình vượt quá hạn mức. Do công ty đặt ngân sách $0 cho premium request, khi hết 300 lượt miễn phí, bạn sẽ không thể tiếp tục dùng mô hình cao cấp cho đến tháng sau – điều này có thể gián đoạn công việc nếu bạn đang cần AI nhất.
  • Chia sẻ kinh nghiệm sử dụng hiệu quả: Cuối cùng, hãy chia sẻ những mẹo hay và kinh nghiệm của bạn trong việc kết hợp các mô hình AI với đồng nghiệp. Ví dụ: mô hình nào phù hợp cho ngôn ngữ lập trình hoặc loại bài toán nào, cách viết prompt (gợi ý) để có kết quả tốt nhất, v.v. Văn hóa chia sẻ này không chỉ giúp mỗi cá nhân nâng cao kỹ năng sử dụng Copilot mà còn giúp toàn đội ngũ Sun* gặt hái được nhiều giá trị hơn từ công cụ AI, đồng thời tối ưu hóa chi phí cho tổ chức.

GitHub Copilot Business tại Sun* mở ra một chương mới trong cách chúng ta phát triển phần mềm – nơi con người và AI kết hợp để tạo nên năng suất và chất lượng vượt trội. Với sự hiểu biết về lợi íchgiới hạn của công cụ, cùng ý thức sử dụng hợp lý, mỗi kỹ sư Sun* có thể biến Copilot thành “người đồng đội AI” đáng tin cậy, đồng hành và nâng tầm hiệu quả công việc hàng ngày. Hãy cùng nhau khai thác tối đa tiềm năng của GitHub Copilot, để chúng ta làm việc thông minh hơn, sáng tạo hơn và nhanh hơn trong hành trình chinh phục những mục tiêu mới.


Chú thích về tính cập nhật (4/2026)

Tài liệu này được biên soạn lần đầu vào tháng 08/2025 và được cập nhật gần nhất vào tháng 4/2026 để phản ánh một số thay đổi lớn:

  • GitHub bổ sung và/hoặc thay đổi hỗ trợ các mô hình mới như GPT-5.4, GPT-5.4 mini, GPT-5.2, GPT-5.2-Codex, GPT-5.3-Codex, Claude Sonnet 4.6, Claude Opus 4.6, Gemini 3.1 Pro, Gemini 3 Flash v.v.
  • Một số mô hình đã được deprecated/retire khỏi Copilot: GPT-5.1, GPT-5.1-Codex, GPT-5.1-Codex-Mini (deprecated 15/4/2026), Gemini 3 Pro (deprecated tháng 3/2026), cùng với các mô hình cũ hơn như Claude Sonnet 3.5/3.7, Opus 4, Gemini 2.0 Flash, các dòng o3/o4-mini

Hệ sinh thái GitHub Copilot (tính năng, UI, mô hình AI, hạn mức premium requests/chính sách giá, cách thức tích hợp MCP, OpenAI Codex…) có thể tiếp tục thay đổi nhanh chóng theo thời gian. Vì vậy, khi sử dụng tài liệu này, bạn nên tham khảo song song cả tài liệu chính thức của GitHub Copilot và hướng dẫn nội bộ của Sun* đang hiệu lực.

Nếu bạn phát hiện nội dung chưa chính xác, cần bổ sung, hoặc có đề xuất mới, rất mong bạn tạo issue trên repo tài liệu nội bộ, hoặc liên hệ với @tran.duc.thang hoặc @nguyen.dang.huy trên Slack. Chúng tôi trân trọng tiếp nhận phản hồi và sẽ cập nhật sớm nhất có thể. Xin cảm ơn!