Skip to content

Giới thiệu về GitHub Copilot

GitHub Copilot là gì?

GitHub Copilot là một trợ lý lập trình viên trí tuệ nhân tạo (AI) do GitHub phát triển. Được mệnh danh là “AI pair programmer” (bạn lập trình AI), Copilot hỗ trợ lập trình viên viết code nhanh hơn và với ít công sức hơn bằng cách sử dụng bối cảnh từ code và comment để đề xuất các đoạn code – từ những dòng code riêng lẻ cho đến cả hàm hoàn chỉnh – một cách tức thì . Copilot tích hợp trực tiếp vào các môi trường phát triển (IDE) phổ biến như Visual Studio Code, Visual Studio, các IDE của JetBrains, Neovim, v.v., giúp gợi ý code theo thời gian thực khi bạn đang code. Nhờ các tính năng mạnh mẽ này, Copilot đã được chứng minh có thể giúp lập trình viên tăng tốc độ viết code lên đáng kể, góp phần đẩy nhanh tiến độ phát triển phần mềm và nâng cao trải nghiệm của lập trình viên.

Mặc dù rất hữu ích, GitHub Copilot không phải lúc nào cũng hoàn hảo. Các gợi ý do AI đưa ra đôi khi có thể không chính xác hoặc chưa phù hợp ngữ cảnh, do đó lập trình viên cần xem xét, kiểm thử và chỉnh sửa lại mã nguồn được đề xuất khi cần thiết. Nói cách khác, Copilot là một công cụ hỗ trợ đắc lực giúp bạn tiết kiệm thời gian và tập trung vào những phần quan trọng, nhưng không thay thế hoàn toàn vai trò của lập trình viên. Bên cạnh đó, kỹ năng sử dụng Copilot một cách hiệu quả cũng là yếu tố quan trọng để tận dụng tối đa sức mạnh của công cụ này.

Copilot tại Sun*: Hành trình triển khai và khuyến khích sử dụng

Tại Sun*, GitHub Copilot đã được đưa vào thử nghiệm từ cuối năm 2023 trên quy mô nhỏ. Những kết quả tích cực ban đầu từ nhóm thử nghiệm đã tạo tiền đề để công ty quyết định mở rộng triển khai công cụ này. Vào đầu năm 2025, Sun* đã xây dựng kế hoạch phổ cập việc sử dụng GitHub Copilot trên toàn công ty, coi đây là một giải pháp chiến lược nhằm nâng cao năng suất trong phát triển phần mềm. Đến tháng 7/2025, toàn bộ kỹ sư phần mềm trong công ty đều đã được cấp tài khoản GitHub Copilot (gói Business) để sử dụng trong công việc hàng ngày. Bên cạnh đó, những vị trí đặc thù khác như BrSE (Bridge System Engineer), QA (Quality Assurance)... cũng có thể được xem xét cấp tài khoản Copilot Business nếu có nhu cầu chính đáng.

Sun* khuyến khích tất cả mọi người tận dụng triệt để các tính năng của GitHub Copilot trong công việc, đồng thời tích cực chia sẻ kiến thức và kinh nghiệm trong việc sử dụng công cụ này. Sự trao đổi nội bộ về cách dùng Copilot hiệu quả sẽ giúp cả tập thể cùng cải thiện năng suất lao động, nâng cao chất lượng quy trình phát triển phần mềm, và thúc đẩy văn hóa học hỏi đổi mới trong công ty. Việc áp dụng AI như Copilot trên quy mô toàn công ty thể hiện sự cam kết của Sun* trong việc trang bị cho nhân viên những công nghệ tiên tiến nhất, tạo cảm hứng để mỗi kỹ sư có thể phát huy tối đa năng lực sáng tạo của mình.

Các mô hình AI tích hợp trong GitHub Copilot

Một trong những điểm mạnh của GitHub Copilot ngày nay là khả năng tích hợp nhiều mô hình AI khác nhau để phục vụ nhu cầu đa dạng của người dùng. Ban đầu, Copilot được vận hành dựa trên OpenAI Codex (một biến thể của GPT-3) . Hiện tại, Copilot đã được nâng cấp với những mô hình AI tiên tiến hơn, bao gồm cả các phiên bản thuộc họ GPT của OpenAI cũng như các mô hình từ những nhà cung cấp khác:

Mô hình mặc định

Tính đến cuối tháng 11/2025, trên các gói trả phí (Copilot Pro, Pro+, Business, Enterprise), Copilot coi GPT-5 mini, GPT-4.1GPT-4o là các mô hình “included” cho code completion và hầu hết tương tác chat cơ bản. Các mô hình này không bị trừ premium requests trên các gói trả phí. Với GPT-4.1, thì đây là mô hình đã được tinh chỉnh để hỗ trợ viết code hiệu quả, cung cấp cân bằng tốt giữa tốc độ và chất lượng gợi ý. Mô hình này có khả năng hiểu ngữ cảnh tốt, giúp lập trình viên nhận được các gợi ý code chính xác và phù hợp với nhu cầu của mình. Còn GPT-5-mini là một trong những mô hình mới nhất của OpenAI được công bố đầu tháng 8/2025, đây cũng là mô hình duy nhất trong danh sách các mô hình "miễn phí" có khả năng suy luận. Tuy nhiên do nó là một phiên bản cỡ nhỏ của GPT-5, nên hiệu quả có phần hạn chế hơn nhiều.

Trong nhiều trường hợp phức tạp hoặc khi cần phân tích sâu hơn, người dùng có thể lựa chọn các mô hình khác mạnh mẽ hơn.

Các mô hình OpenAI khác

Ngoài nhóm mô hình included nói trên, Copilot còn hỗ trợ một loạt mô hình mạnh hơn từ OpenAI:

  • GPT-5: mô hình “đa năng cao cấp” với khả năng suy luận sâu, phù hợp cho các tác vụ phân tích kiến trúc, thiết kế hệ thống, refactor những phần code lớn, hoặc debug những vấn đề phức tạp.
  • GPT-5.1: thế hệ mới nhất của OpenAI, được GitHub khuyến nghị cho các tác vụ cần phân tích nhiều bước hoặc xem xét cả kiến trúc tổng thể của codebase.
  • GPT-5-Codex: biến thể chuyên cho code, cho chất lượng tốt hơn GPT-5 trong các tác vụ engineering như xây tính năng end-to-end, sinh test, refactor hoặc review code phức tạp.
  • GPT-5.1-Codex & GPT-5.1-Codex-Mini: là thế hệ mới hơn của dòng Codex, được tối ưu cho agentic coding và các workflow dài hơi.

Trong bảng model multipliers của GitHub, các mô hình trên đều được xếp loại premium, với hệ số nhân 1× cho GPT-5, GPT-5-Codex, GPT-5.1 và GPT-5.1-Codex; riêng GPT-5.1-Codex-Mini được tính 0.33×, tức ba lần dùng mới hết 1 premium request.

Với sự ra đời của GPT-5 series, thì lần lượt các mô hình suy luận thế hệ cũ như các dòng o3/o4-mini… đã được retire khỏi Copilot. Do đó, hiện tại chúng ta sẽ không còn thấy các mô hình này trong danh sách lựa chọn nữa.

Mô hình Anthropic Claude

GitHub Copilot hiện tích hợp một loạt mô hình Claude 4.x do Anthropic phát triển. Danh sách chính (tính đến cuối 11/2025) bao gồm:

  • Claude Haiku 4.5: bản nhẹ, rất nhanh, phù hợp cho tác vụ “hỏi đáp nhanh”, refactor/giải thích các file code nhỏ, hoặc bổ sung comment.
  • Claude Sonnet 4Claude Sonnet 4.5: “xương sống” cho đa số tác vụ general + coding; bản 4.5 được tối ưu thêm cho complex agents & coding, có context window rất lớn (200k–1M token qua API) và được nhiều benchmark đánh giá là một trong những model mạnh nhất cho agent/coding.
  • Claude Opus 4.1: mô hình “flagship” cũ, cực mạnh về reasoning, nhưng chi phí premium request rất cao trong Copilot. Đây là mô hình không dùng được trong gói Business tại Sun*.
  • Claude Opus 4.5: thế hệ mới nhất, được Anthropic quảng bá là “model thông minh nhất của họ”, vượt Sonnet 4.5 trên nhiều benchmark, đặc biệt xuất sắc trong các tác vụ coding và bài toán doanh nghiệp phức tạp. Trong Copilot, hiện thời Opus 4.5 có chi phí sử dụng là 1× premium request, sau đó sẽ tăng lên 3× từ ngày 05/12/2025 (trong khi Opus 4.1 là 10x). Opus 4.5 có thể dùng được trong gói Business tại Sun*, tuy nhiên vì chi phí premium khá cao nên cần cân nhắc kỹ trước khi sử dụng.

Các mô hình cũ như Claude Sonnet 3.5, Sonnet 3.7 hay Opus 4 đã lần lượt bị retire khỏi Copilot trong giai đoạn 10–11/2025 và được khuyến nghị thay thế bằng các model 4.x mới hơn (Haiku 4.5, Sonnet 4/4.5, Opus 4.1/4.5).

Mô hình Google Gemini

Copilot cũng đã bổ sung các mô hình từ Google, với các lựa chọn chính hiện nay:

  • Gemini 2.5 Pro: mô hình đã xuất hiện từ trước, phù hợp cho các tác vụ cần suy luận sâu, đa phương thức (multimodal) và hỗ trợ code tốt.
  • Gemini 3 Pro: đây là thế hệ Gemini 3 mới nhất, được Google quảng bá là “model thông minh nhất” của họ ở thời điểm hiện tại, với context window lên tới 1M token và kết quả benchmark tốt hơn thế hệ Gemini 1.5/2.x trên nhiều bài test reasoning & coding.

Mô hình Gemini 2.0 Flash trước đây đã bị retire khỏi Copilot vào tháng 10/2025; GitHub khuyến nghị người dùng chuyển sang Gemini 2.5 Pro hoặc Gemini 3 Pro cho các tác vụ cần tốc độ cao và nhiều ngữ cảnh.

Cách lựa chọn mô hình phù hợp

Với Copilot Chat, người dùng có thể chọn thủ công mô hình AI mà mình muốn tương tác trong từng ngữ cảnh. Danh sách các mô hình khả dụng trải rộng từ OpenAI GPT-4.1, GPT-5-mini (mặc định) cho đến Claude và Gemini như kể trên. Việc hoán đổi giữa các mô hình này giúp lập trình viên tùy biến trải nghiệm: có thể chọn mô hình nhanh hơn cho những tác vụ đơn giản cần phản hồi tức thì, hoặc chọn mô hình mạnh hơn khi cần giải quyết vấn đề phức tạp đòi hỏi độ chính xác và chiều sâu. Chẳng hạn, bạn có thể dùng GPT-4.1 để “nhanh gọn” hoàn thành một đoạn code đơn giản, rồi chuyển sang Claude Sonnet 4.5 hoặc Gemini 3 Pro khi cần phân tích và viết một thuật toán phức tạp. Sự linh hoạt này mang lại giá trị lớn, nhưng đồng thời người dùng cũng cần lưu ý đến yếu tố chi phí và giới hạn khi sử dụng các mô hình cao cấp, như sẽ đề cập dưới đây.

Về cơ bản, chúng ta có thể follow theo một chiến lược khá đơn giản mà hiệu quả là:

  1. Bắt đầu bằng GPT-4.1 hoặc GPT-5-mini cho mọi việc thường ngày. Bạn hầu như không cần đến những mô hình premium cho tác vụ hỏi đáp thông thường, hãy để dành premium request cho những tác vụ Agent phức tạp.
  2. Chuyển sang các model mạnh hơn (GPT-5/5.1, Sonnet 4.5, Gemini 3 Pro, Codex) khi cần chạy Agent xử lý trên codebase lớn.
  3. Luôn để ý quota premium và multiplier để tránh “cháy” request quá sớm, như sẽ trình bày ở phần tiếp theo.

Giá trị và giới hạn của gói GitHub Copilot Business

Việc Sun* sử dụng GitHub Copilot Business mang lại nhiều lợi ích rõ rệt so với việc dùng bản Free hoặc các gói cá nhân, đồng thời đi kèm một số giới hạn nhất định về mặt sử dụng mô hình AI cao cấp.

Những giá trị nổi bật của Copilot Business

  • Không giới hạn với các mô hình cơ bản (included models): Mỗi tài khoản Copilot Business tại Sun* được phép sử dụng không giới hạn các tính năng đề xuất code tự động (code completion) và chat với các mô hình AI “included” là GPT-5 mini, GPT-4.1 và GPT-4o. Nói cách khác, bạn có thể nhận gợi ý code liên tục và trao đổi với Copilot Chat bao nhiêu lần tùy thích mà không lo vượt hạn mức, miễn là sử dụng các mô hình included này (hoặc để Auto nhưng Copilot quyết định chỉ dùng included). Điều này rất quan trọng vì GPT-5-mini và GPT-4.1 hiện đã đủ mạnh và đáp ứng được một số nhu cầu hàng ngày trong coding.

  • Truy cập tính năng nâng cao: Gói Business mở khóa đầy đủ các tính năng mới nhất của Copilot: bạn có Copilot Chat tích hợp trong IDE, Copilot Code Review (tự động comment/review trong Pull Request), Copilot coding agent (chế độ Agent tự động thực hiện các tác vụ phức tạp như viết code, chạy test, chỉnh sửa và tạo PR), Copilot CLI, Copilot trong Terminal, GitHub Mobile, GitHub Desktop, Spark, Copilot Spaces, cũng như khả năng tích hợp MCP và custom agents. Nhờ vậy, lập trình viên Sun* có thể tận dụng gần như toàn bộ hệ sinh thái AI mà GitHub cung cấp để tăng tốc độ làm việc và nâng cao chất lượng code.

  • Quản lý và bảo mật ở cấp tổ chức: Ở cấp độ tổ chức, Copilot Business cho phép Sun* quản lý tập trung việc cấp phép và thiết lập chính sách AI. Chẳng hạn, công ty có thể cấu hình chính sách với mã nguồn riêng tư, hạn chế gợi ý trùng với mã nguồn public, điều chỉnh việc bật/tắt các mô hình premium, cũng như thiết lập ngân sách (budget) cho premium requests. Các admin có thể theo dõi việc sử dụng Copilot trong toàn tổ chức thông qua báo cáo, từ đó đánh giá hiệu quả, kiểm soát chi phí và đảm bảo tuân thủ các yêu cầu bảo mật.

Giới hạn – Premium Requests và cách sử dụng hợp lý

Đầu tiên, với plan Business thì hiện tại chúng ta không sử dụng được mô hình Claude Opus 4.1, vì vậy chúng ta sẽ không thấy mô hình này trong danh sách lựa chọn.

Bên cạnh đó, có một điểm cần lưu ý trong gói Copilot Business là khái niệm Premium Requests. Đây là cơ chế giới hạn số lần sử dụng những mô hình AI không phải mặc định hoặc các tính năng AI nâng cao đòi hỏi nhiều tài nguyên.

Hạn mức Premium Requests: Mỗi người dùng trong gói Business được 300 premium requests mỗi tháng mà không tính thêm phí. Hạn mức này được reset vào ngày đầu tiên mỗi tháng. Premium Request được tính khi bạn gọi các mô hình không bao gồm trong gói cơ bản. Theo GitHub, bất kỳ yêu cầu nào gửi tới mô hình khác GPT-4.1 (và GPT-4o, GPT-5-mini) đều được coi là premium. Ví dụ, khi trong Copilot Chat bạn chuyển sang dùng Claude Sonnet 4.5 hoặc Gemini 3 Pro, mỗi lần hỏi-đáp sẽ tiêu tốn 1 premium request. Bên cạnh đó, GitHub Copilot có một chính sách rất đặc biệt trong Agent Mode, khi chỉ tính 1 premium request cho mỗi lần user gửi prompt, tức mặc dù trong flow mà agent xử lý, có thể phát sinh nhiều lần gọi đến các mô hình cao cấp, thì user vẫn chỉ bị trừ 1 request duy nhất cho toàn bộ quá trình. Điều này rất có lợi khi bạn cần chạy các workflow phức tạp mà không muốn tốn quá nhiều request.

Mỗi premium request được tính theo 2 yếu tố: featuremodel multiplier:

  • Theo feature:
  • Copilot Chat: mỗi prompt (ask/edit/agent/plan) = 1 premium request × model multiplier.
  • Copilot CLI: mỗi prompt = 1 premium request × multiplier.
  • Copilot code review: mỗi lần Copilot review PR (được assign) hoặc review code trong IDE = 1 premium request × multiplier.
  • Copilot coding agent:
    • 1 premium request cho mỗi session (khi bạn yêu cầu tạo PR hoặc thay đổi một PR hiện có),
    • +1 request cho mỗi real-time steering comment trong session đó, cũng nhân với multiplier tương ứng.
  • Spark: mỗi prompt cố định là 4 premium requests (× multiplier).
  • Copilot Spaces: mỗi prompt = 1 premium request × multiplier.
  • OpenAI Codex integration (preview): mỗi prompt = 1 premium request × multiplier.

  • Theo model multiplier: Mỗi mô hình AI trong Copilot được gán một hệ số nhân (multiplier) khác nhau, phản ánh mức độ tiêu tốn tài nguyên của mô hình đó. Hệ số này sẽ nhân với số premium requests cơ bản để tính tổng số request bị trừ. Cụ thể:

  • : GPT-5 mini, GPT-4.1, GPT-4o → không trừ premium.
  • 0.33×: Claude Haiku 4.5, GPT-5.1-Codex-Mini → 3 lần dùng mới tính 1 premium request.
  • : GPT-5, GPT-5-Codex, GPT-5.1, GPT-5.1-Codex, Claude Sonnet 4, Sonnet 4.5, Gemini 2.5 Pro, Gemini 3 Pro, Claude Opus 4.5 (đến 5/12/2025) …
  • : Claude Opus 4.5 sau ngày 05/12/2025 (trước đó là 1× khuyến mãi).

Như vậy, bất kỳ yêu cầu nào gửi tới mô hình khác GPT-5 mini / GPT-4.1 / GPT-4o / Raptor mini đều được coi là premium và sẽ trừ quota theo multiplier tương ứng. Ví dụ: một lần hỏi bằng Sonnet 4.5 trong Chat = 3 premium request; một lần hỏi bằng Opus 4.1 = 10 premium requests.

Khi hết premium requests thì chuyện gì xảy ra?

  • Premium requests không được cộng dồn sang tháng sau; đến đầu tháng (00:00 UTC ngày 1) sẽ reset.
  • Nếu bạn dùng hết 300 premium request:
  • Bạn vẫn có thể tiếp tục dùng Copilot với các mô hình included (GPT-5 mini, GPT-4.1, GPT-4o) cho inline suggestion, chat và agent không giới hạn (nhưng có thể bị rate limiting giờ cao điểm).
  • Bạn không thể dùng mô hình premium thêm nữa, trừ khi admin của organization bật chính sách “Premium request paid usage” và cho phép vượt budget. Các request bổ sung sẽ bị tính phí phát sinh là $0.04 USD mỗi request. Tuy nhiên hiện tại Sun* không bật chính sách này.

Với giới hạn trên, làm thế nào để sử dụng Copilot một cách hiệu quả và hợp lý? Dưới đây là một số lời khuyên cho kỹ sư Sun*:

  • Ưu tiên mô hình mặc định cho tác vụ thường ngày: Hãy tận dụng GPT-4.1 hoặc GPT-5-mini (mô hình mặc định) cho phần lớn các tác vụ lập trình hàng ngày của bạn. Đây là mô hình đã được tối ưu cho việc code, mạnh mẽ và không tính vào hạn mức premium của bạn. Trong nhiều trường hợp, GPT-4.1 và GPT-5-mini đủ khả năng cung cấp những gợi ý chất lượng và hỗ trợ bạn hoàn thành công việc nhanh hơn.
  • Chỉ dùng mô hình cao cấp khi thực sự cần thiết: Trong một số tình huống đặc thù – ví dụ: bạn gặp một bài toán phức tạp, cần phân tích logic sâu, hoặc cần xử lý ngữ cảnh code rất lớn – bạn có thể cân nhắc chuyển sang các mô hình cao cấp hơn như Claude Sonnet 4.5, GPT-5.1-codex hoặc Gemini 3 Pro để tận dụng sức mạnh AI tối đa. Tuy nhiên, hãy nhớ rằng mỗi lượt sử dụng các mô hình này sẽ trừ vào 300 premium requests của bạn. Vì vậy, đừng lạm dụng chúng cho những việc đơn giản.

Lưu ý: Hạn chế "không được công bố" về chất lượng mô hình GPT-4.1 trong Copilot.

Mặc dù GPT-4.1 được GitHub quảng cáo là miễn phí và không giới hạn trong gói Business, rất nhiều lập trình viên phản ánh rằng chất lượng của mô hình này trong Copilot tụt dốc rõ rệt khi xử lý ngữ cảnh dài hoặc các tác vụ phức tạp, đặc biệt là ở chế độ Agent mode. Các thử nghiệm nội bộ tại bộ phận R&D của Sun* cũng cho thấy GPT-4.1 trong Copilot thường cho kết quả kém ổn định và kém chính xác hơn so với GPT-4.1 được gọi trực tiếp qua OpenAI API, nhất là khi chạy các workflow agent nặng—kết quả phù hợp với nhận xét của cộng đồng rằng Copilot “yếu hơn ChatGPT” trong nhiều tình huống. Một số người dùng từng thấy thông báo lỗi “context_length_exceeded – 8 192 tokens”, dù tài liệu công bố GPT-4.1/GPT-4o hỗ trợ cửa sổ 128k ~ 1m token, cho thấy Copilot có thể đang giới hạn context length để tiết kiệm chi phí. Ngoài ra, nhiều thử nghiệm cũng cho thấy việc chất lượng đầu ra dao động đáng kể theo thời điểm trong ngày—cùng một prompt nhưng vào giờ cao điểm buổi chiều có thể cho kết quả “nghèo nàn” hơn buổi sáng, hàm ý có cơ chế điều tiết tài nguyên theo tải hệ thống.

  • Theo dõi hạn mức sử dụng: GitHub Copilot cung cấp công cụ giúp bạn theo dõi lượng premium request đã dùng trong tháng. Bạn có thể kiểm tra ngay trên biểu tượng Copilot trong IDE (ví dụ VS Code) – thanh trạng thái sẽ hiển thị bạn đã dùng bao nhiêu % quota premium trong tháng. Hãy tập thói quen quan sát chỉ số này, đặc biệt khi bạn thường xuyên dùng các mô hình cao cấp, để tránh việc vô tình vượt quá hạn mức. Do công ty đặt ngân sách $0 cho premium request, khi hết 300 lượt miễn phí, bạn sẽ không thể tiếp tục dùng mô hình cao cấp cho đến tháng sau – điều này có thể gián đoạn công việc nếu bạn đang cần AI nhất.
  • Chia sẻ kinh nghiệm sử dụng hiệu quả: Cuối cùng, hãy chia sẻ những mẹo hay và kinh nghiệm của bạn trong việc kết hợp các mô hình AI với đồng nghiệp. Ví dụ: mô hình nào phù hợp cho ngôn ngữ lập trình hoặc loại bài toán nào, cách viết prompt (gợi ý) để có kết quả tốt nhất, v.v. Văn hóa chia sẻ này không chỉ giúp mỗi cá nhân nâng cao kỹ năng sử dụng Copilot mà còn giúp toàn đội ngũ Sun* gặt hái được nhiều giá trị hơn từ công cụ AI, đồng thời tối ưu hóa chi phí cho tổ chức.

GitHub Copilot Business tại Sun* mở ra một chương mới trong cách chúng ta phát triển phần mềm – nơi con người và AI kết hợp để tạo nên năng suất và chất lượng vượt trội. Với sự hiểu biết về lợi íchgiới hạn của công cụ, cùng ý thức sử dụng hợp lý, mỗi kỹ sư Sun* có thể biến Copilot thành “người đồng đội AI” đáng tin cậy, đồng hành và nâng tầm hiệu quả công việc hàng ngày. Hãy cùng nhau khai thác tối đa tiềm năng của GitHub Copilot, để chúng ta làm việc thông minh hơn, sáng tạo hơn và nhanh hơn trong hành trình chinh phục những mục tiêu mới.


Chú thích về tính cập nhật (11/2025)

Tài liệu này được biên soạn lần đầu vào tháng 08/2025 và được cập nhật gần nhất vào cuối tháng 11/2025 để phản ánh một số thay đổi lớn:

  • GitHub bổ sung và/hoặc thay đổi hỗ trợ các mô hình mới như GPT-5 mini, GPT-5, GPT-5.1, GPT-5-Codex, GPT-5.1-Codex / GPT-5.1-Codex-Mini, Claude Haiku 4.5, Claude Sonnet 4.5, Claude Opus 4.5, Gemini 3 Pro v.v.
  • Một số mô hình cũ như Claude Sonnet 3.5/3.7, Opus 4, Gemini 2.0 Flash, các dòng o3/o4-mini… đã được retire khỏi Copilot.

Hệ sinh thái GitHub Copilot (tính năng, UI, mô hình AI, hạn mức premium requests/chính sách giá, cách thức tích hợp MCP, OpenAI Codex…) có thể tiếp tục thay đổi nhanh chóng theo thời gian. Vì vậy, khi sử dụng tài liệu này, bạn nên tham khảo song song cả tài liệu chính thức của GitHub Copilot và hướng dẫn nội bộ của Sun* đang hiệu lực.

Nếu bạn phát hiện nội dung chưa chính xác, cần bổ sung, hoặc có đề xuất mới, rất mong bạn tạo issue trên repo tài liệu nội bộ, hoặc liên hệ với @tran.duc.thang hoặc @nguyen.dang.huy trên Slack. Chúng tôi trân trọng tiếp nhận phản hồi và sẽ cập nhật sớm nhất có thể. Xin cảm ơn!