Mở nguồn AI vs AI đóng: Ai sẽ là người chiến thắng trong cuộc chiến AI năm 2025? - Phần 2

Mở nguồn AI vs AI đóng: Ai sẽ là người chiến thắng trong cuộc chiến AI năm 2025? - Phần 2

Mở nguồn AI vs AI đóng: Ai sẽ là người chiến thắng trong cuộc chiến AI năm 2025? - Phần 2

Mục lục nội dung (tự động tạo)
  • Phân đoạn 1: Giới thiệu và bối cảnh
  • Phân đoạn 2: Nội dung sâu và so sánh
  • Phân đoạn 3: Kết luận và hướng dẫn thực hiện

AI mã nguồn mở vs AI đóng: Ai sẽ là người chiến thắng trong cuộc chiến AI năm 2025? — Phần 2: Giới thiệu

Trong Phần 1, chúng ta đã xem xét vị trí hiện tại của đường cong tăng trưởng trí tuệ nhân tạo khi năm 2025 đang đến gần, và cách mà những người tiêu dùng, doanh nghiệp nhỏ, và những người sáng tạo như bạn nên tiếp cận câu hỏi “bây giờ tôi nên chọn cái gì”. Đặc biệt, chúng ta đã định nghĩa lại sự khác biệt về công nghệ, chi phí và quản trị giữa AI mã nguồn mởAI đóng ảnh hưởng như thế nào đến cuộc sống và kết quả kinh doanh, cũng như việc ‘người chiến thắng’ không chỉ được xác định bằng thị phần mà còn là “giá trị mà người dùng nhận được” và “hệ sinh thái bền vững”. Bắt đầu từ hôm nay, Phần 2 sẽ đưa ra những quan điểm sâu sắc hơn cho cuộc thảo luận này, nhằm giúp bạn áp dụng vào quyết định của mình qua phần giới thiệu—bối cảnh—định nghĩa vấn đề.

Tái khẳng định Phần 1: Những sự thật mà chúng ta đã đồng thuận

  • Hiệu suất đang được nâng cao: Khả năng suy luận kiến thức, lập trình, và hiểu biết đa phương thức đang được cải thiện nhanh chóng. Sự khác biệt chủ yếu nằm ở “tính nhất quán, độ tin cậy, và vận hành” hơn là độ phân giải.
  • Chi phí và tốc độ là biến số chiến lược: Sự giảm chi phí suy luận và tăng tốc độ biên sẽ biến 'AI luôn hoạt động' thành hiện thực thay vì 'sử dụng một lần rồi thôi'.
  • Dữ liệu phải đứng về phía bạn: Mức độ quản trị dữ liệubảo mật AI phân chia độ tin cậy của kết quả và rủi ro quy định.
  • Quyết định người chiến thắng là có tính bối cảnh: Lựa chọn LLM khác nhau tùy thuộc vào TPO (Thời gian-Địa điểm-Cơ hội) của cá nhân, nhóm hoặc doanh nghiệp.

Bây giờ, khi mở ra phần chính, chúng ta sẽ đặt ra câu hỏi rõ ràng hơn mà năm 2025 sẽ mang lại. “Mở hay Đóng” không chỉ là cuộc chiến về sở thích công nghệ. Đây là ‘lựa chọn cuộc sống’ liên quan đến chi phí thuê bao, dữ liệu cá nhân, tốc độ sản phẩm và sự tin cậy của thương hiệu của bạn.

오픈소스 관련 이미지 1
Image courtesy of Taiki Ishikawa (via Unsplash/Pexels/Pixabay)

Tại sao năm 2025 lại là thời điểm quyết định

Trước tiên, sự kết hợp giữa phần cứng và phần mềm đã đạt đến điểm mấu chốt. Khi GPU và NPU trở nên phổ biến, suy luận biên đã bắt đầu áp dụng trong thực tế, trong khi ở phía máy chủ, việc tinh chỉnh chính xác và lượng tử hóa đang làm cho các mô hình lớn giảm kích thước xuống kích thước ứng dụng hàng ngày. Đồng thời, sự giới hạn chỉ dựa vào tinh thần chế độ nhắc nhở đã bộc lộ, khi mà việc sử dụng công cụ, đa tác nhân và động cơ quy trình đang mở ra những giới hạn chất lượng mới. Tại điểm này, AI mã nguồn mở tự hào với khả năng thử nghiệm nhanh chóng và tùy chỉnh, trong khi AI đóng lại có độ hoàn thiện sản phẩm cao hơn như một lợi thế của mình.

Quan trọng hơn, cấu trúc chi phí đang thay đổi. Chúng ta có thể thoát ra khỏi sự phụ thuộc vào API thuê bao đơn giản và chọn những con đường có TCO (Tổng chi phí sở hữu) thấp hơn tùy thuộc vào mô hình sử dụng. Các công việc có tần suất thấp và chất lượng cao có thể sử dụng mô hình mới nhất của AI đóng một cách hiệu quả, trong khi lưu lượng truy cập lớn và thường xuyên sẽ được hưởng lợi từ trọng số mở nhẹ hơn.

Mặt khác, yêu cầu về luật pháp, quy định và giấy phép đang trở thành hiện thực. Vấn đề về biên giới dữ liệu, kiểm toán doanh nghiệp, và bồi thường bản quyền cho người sáng tạo đang nổi lên. Tại đây, việc giải thích và tuân thủ giấy phép không còn là vấn đề chỉ dành cho các nhà phát triển. Đó là một phép tính hàng ngày phân chia chi phí thuê bao, phí bảo hiểm, và rủi ro pháp lý mà bạn phải đối mặt.

Mã nguồn mở vs Đóng: 'Phổ' ẩn sau sự nhị phân

Thường thì người ta phân chia “nếu có GitHub thì là mã nguồn mở, nếu là API web thì là đóng”, nhưng thực tế hiện trường lại phức tạp hơn. Dù mã có thể công khai, nhưng trọng số có thể không được công khai, và nếu trọng số được mở, thì có thể có những hạn chế về việc sử dụng thương mại hoặc phân phối lại. Tại sao sự phân biệt này lại quan trọng? Bởi vì ngay khi bạn ‘kết nối’ mô hình vào sản phẩm của mình, quy tắc vận hành và đường cong chi phí sẽ thay đổi.

Trục phân loại Mô tả Ảnh hưởng đến bạn
Công khai mã Công khai kiến trúc mô hình và kịch bản học Bảo đảm khả năng tái hiện, có thể điều chỉnh hiệu suất. Độ khó bảo trì là trách nhiệm của bạn.
Công khai trọng số Có thể tải trọng số đã học xuống Tự do tăng cường phân phối mô hình bằng cách phân phối cục bộ/biên, cần quản lý chi phí hạ tầng.
Cho phép thương mại Khả năng sử dụng cho mục đích thương mại Giảm thiểu rủi ro chuyển đổi giấy phép khi chuyển từ dự án phụ sang kiếm tiền.
Công khai dữ liệu Tính minh bạch/độ cung cấp của tập dữ liệu học Quản trị dữ liệu và trách nhiệm nguồn gốc. Quản lý rủi ro thương hiệu là điều cốt yếu.
Giới hạn API Tốc độ, tỷ lệ, hạn ngạch, giới hạn theo khu vực Rủi ro chậm trễ trong giờ cao điểm và hóa đơn bất ngờ. Vận hành dự đoán là cần thiết.
Kiểm toán và theo dõi Mức độ tích hợp chức năng ghi chép, chính sách và kiểm toán Quyết định chi phí phản ứng kiểm toán trong ngành quy định.

Cạm bẫy giấy phép: “Có vẻ miễn phí, nhưng có thể không miễn phí”

Một số mô hình công khai trọng số nhưng lại hạn chế về phân phối lại, tinh chỉnh, và sử dụng thương mại. Trong các mô hình đa phương thức như văn bản, hình ảnh, âm thanh, vấn đề trở nên phức tạp hơn. Số lượng ngày càng tăng các trường hợp mà dự án cá nhân gặp doanh thu và đột nhiên trở thành vi phạm chính sách. Trước khi ra mắt, hãy chắc chắn rằng bạn đã kiểm tra các điều khoản giấy phép về “sử dụng thương mại, phân phối lại, và cấp phép phụ”.

Quan điểm của người tiêu dùng: Tiền của tôi, thời gian của tôi, dữ liệu của tôi

Bạn đang sử dụng AI trên nhiều ứng dụng mỗi ngày. Biến đổi công thức nấu ăn, tóm tắt tài liệu thuế, kiểm tra bài tập của trẻ, sắp xếp đánh giá mua sắm, tạo lịch trình du lịch. Trong từng khoảnh khắc, ‘mô hình nào được sử dụng’ liên quan đến chi phí thuê bao, tốc độ phản hồi, rủi ro lộ dữ liệu cá nhân, và độ ổn định của kết quả. Khi AI sinh tạo đã trở thành trợ lý trong đời sống, tiêu chí lựa chọn cần phải mang tính nhân văn hơn.

  • Ví tiền: Mức độ mệt mỏi với thuê bao đã tăng lên. Khi thực hiện công việc tương tự liên tục, mô hình nhẹ cục bộ có khả năng rẻ hơn.
  • Tốc độ: Suy luận biên làm giảm độ trễ. Nó rất mạnh ở những nơi có mạng không ổn định.
  • Dữ liệu cá nhân: Lựa chọn cục bộ/on-premise giảm thiểu nguy cơ rò rỉ dữ liệu ra bên ngoài. Ngược lại, API có thể phát triển chức năng kiểm toán tốt hơn.
  • Cập nhật: AI đóng có tính năng mới nhanh hơn, nhưng phụ thuộc vào sự thay đổi chính sách. Mặc dù AI mã nguồn mở có thể chậm hơn, nhưng nhịp độ dài hạn lại ổn định hơn.

오픈소스 관련 이미지 2
Image courtesy of julien Tromeur (via Unsplash/Pexels/Pixabay)

Điều quan trọng hơn con số: ‘Tính nhất quán’ và ‘trách nhiệm’

Điểm số chuẩn là có giá trị. Tuy nhiên, sự hài lòng mà bạn cảm nhận hàng ngày lại khác ở một khía cạnh khác. Kết quả thử nghiệm A/B có bị đảo ngược hàng tuần không? Điều gì đang diễn ra hôm nay có bị đình trệ vào ngày mai không? Giọng điệu đối với các câu hỏi từ khách hàng có bị ảnh hưởng bởi sự thay đổi chính sách của thương hiệu cụ thể không? Bạn phải có thể nói “không” một cách ổn định với những câu hỏi này để trở thành người chiến thắng trong thực tế.

Hơn nữa, sự lan tỏa của quy trình làm việc theo tác nhân đã biến niềm tin vào ‘một câu trả lời’ thành ‘hành động liên kết và công cụ’. AI đóng mạnh về hệ sinh thái công cụ tích hợp, trong khi AI mã nguồn mở lại có lợi thế trong việc kết nối tùy chỉnh và khả năng quan sát. Dù theo hướng nào, bạn cần xác định rõ các đường bảo mật AI và quản trị liên quan đến kết quả.

Cuối cùng, cuộc chiến công nghệ sẽ chuyển thành cuộc chiến vận hành. Ghi chép, rào chắn, bộ lọc nội dung, tài khoản và quyền hạn, theo dõi kiểm toán. Điểm quyết định trong năm 2025 sẽ gần gũi hơn với ‘độ chắc chắn của dịch vụ’ hơn là ‘sự thông minh của mô hình’.

“Lựa chọn mô hình chỉ là bước khởi đầu. Liệu tôi có thể kết hợp khả năng vận hành của đội ngũ mình và dữ liệu miền để tạo ra chất lượng có thể được thu hồi? Đó chính là sức mạnh cạnh tranh thực sự của năm 2025.” — Một CTO của startup

Định nghĩa vấn đề: Cần so sánh điều gì để đến gần hơn với ‘đáp án’

Bây giờ chúng ta sẽ định nghĩa quy tắc so sánh thực tế trong Phần 2. Việc chỉ xem xét chất lượng và giá cả sẽ không đủ vì thực tế quá phức tạp. Bảy câu hỏi sau đây sẽ là khung chính.

  • Độ nhất quán về chất lượng: Kết quả có ổn định theo tuần/tháng không? Có thể thực hiện kiểm tra hồi quy và cố định phiên bản không?
  • Tốc độ và độ trễ: Có đạt được phản hồi ổn định trong 500ms mà người dùng cảm nhận được không? Sự kết hợp tối ưu giữa edge và server là gì?
  • An toàn và quy định: Có sẵn các biện pháp bảo vệ và ghi log cho nội dung độc hại, thông tin cá nhân (PII) và yêu cầu bản quyền không?
  • Tổng chi phí sở hữu (TCO): Chi phí thực tế bao gồm lưu lượng gọi hàng tháng, kịch bản cao điểm và mở rộng quy mô là bao nhiêu?
  • Tùy chỉnh: Có thể điều chỉnh để phù hợp với dữ liệu của bạn vượt qua mức độ nhắc nhở, tinh chỉnh, bộ điều hợp và sơ đồ RAG không?
  • Quản trị: Có đáp ứng được chính sách quản trị dữ liệu, chứng cứ kiểm toán và yêu cầu cư trú dữ liệu khu vực không?
  • Khóa chặt/Di động: Chi phí di chuyển khi chuyển sang mô hình khác sau 6 tháng là bao nhiêu?

Ba câu hỏi chính mà bài viết này sẽ trả lời

  • Giữa mã nguồn mở và mã khép kín, sự kết hợp nào là có lợi nhất cho đội ngũ/gia đình/ngành nghề của chúng ta “ngay bây giờ”?
  • Thực tế TCO từ việc kết hợp chi phí đăng ký, đám mây và pháp lý hàng tháng sẽ được tính toán như thế nào?
  • Chiến lược triển khai mô hình để đạt được chất lượng, quy định và tốc độ đồng thời sẽ được thiết kế theo thứ tự nào?

Hai ảo tưởng: “Mở = miễn phí, Khép kín = tốt nhất”

Đầu tiên, mở không có nghĩa là miễn phí. Dù trọng số miễn phí, nhưng chi phí lao động và thời gian cho máy chủ suy diễn, công cụ giám sát và pipeline cập nhật là một chi phí. Áp lực sẽ lớn hơn khi đội ngũ nhỏ hơn. Tuy nhiên, nếu khối lượng sử dụng lớn hoặc dữ liệu nhạy cảm, chi phí này có thể trở thành một loại bảo hiểm rẻ.

Thứ hai, niềm tin rằng mã khép kín luôn có chất lượng tốt nhất cũng là một rủi ro. Trong một số lĩnh vực nhất định (pháp lý, y tế, an toàn công nghiệp, v.v.), các mô hình chuyên biệt nhỏ có thể vượt trội hơn mô hình lớn chung về độ chính xác và khả năng truy xuất trách nhiệm. Nếu chuyển sang chỉ vì cám dỗ của các tính năng mới nhất, hoạt động có thể bị ảnh hưởng.

Thay vì đưa ra kết luận, chúng tôi đặt lại câu hỏi. “Tiêu chí đánh giá quan trọng với chúng ta là gì?” Chỉ khi có câu trả lời cho câu hỏi này, chúng ta mới có thể đưa ra lựa chọn vững vàng hơn giá cả và bản cập nhật tính năng.

오픈소스 관련 이미지 3
Image courtesy of Taiki Ishikawa (via Unsplash/Pexels/Pixabay)

2023→2024→2025: Sự đồng tồn tại của phụ thuộc đường mòn và đứt gãy

Hai năm qua là giai đoạn chuyển tiếp từ “mô hình lớn” sang “mô hình phù hợp”. Năm 2023 là thời kỳ của sự bất ngờ, năm 2024 là thời kỳ của sự kết hợp. Năm 2025 sẽ khác. Giờ đây, chúng ta sẽ bước vào thời kỳ của “quy trình làm việc luôn mở” và “thích ứng tại chỗ”. Nghĩa là, trải nghiệm sử dụng một lần và cảm thán “Wow!” đã nhường chỗ cho việc sử dụng hàng ngày và cảm thấy “À, cái này tiện quá nên không thể rời bỏ” trở nên quan trọng hơn.

Phân tán edge và suy diễn trên thiết bị cho phép duy trì chất lượng giống nhau khi làm việc tại nhà, đi làm hoặc đi du lịch. Tại đây, AI edge trở nên quan trọng. Những lựa chọn nào có thể đảm bảo độ ổn định không phụ thuộc vào trạng thái mạng? Bạn cần phải xem xét một cách lạnh lùng liệu sự kết hợp giữa trọng số mở và runtime nhẹ có phù hợp hơn với bạn không.

Trong khi đó, số lượng modal đã tăng lên. Văn bản, hình ảnh, âm thanh và video đã đan xen, làm cho các vấn đề về quyền riêng tư và bản quyền trở nên tinh vi hơn. Mã khép kín cung cấp các bộ lọc mạnh mẽ và công cụ truy xuất trách nhiệm rất nhanh chóng. Mã mở có lợi thế về tính minh bạch và tự do thay đổi. Tại đây, câu hỏi then chốt là “Chúng ta sẽ nội hóa trách nhiệm của mình đến đâu?”

Tóm tắt thuật ngữ nhanh chóng dành cho người tiêu dùng

  • LLM: Mô hình ngôn ngữ lớn. Chịu trách nhiệm về hiểu và tạo nội dung dựa trên văn bản.
  • AI sinh tạo: Tập hợp các mô hình rộng có khả năng tạo ra văn bản, hình ảnh, âm thanh và video.
  • Giấy phép: Tài liệu quy định quyền sử dụng, thay đổi và phân phối. Luôn kiểm tra xem có cho phép thương mại không.
  • Quản trị dữ liệu: Chính sách cho toàn bộ quy trình thu thập, lưu trữ, sử dụng và tiêu hủy. Việc tài liệu hóa để chuẩn bị cho kiểm toán là rất quan trọng.
  • Bảo mật AI: Kiểm soát bảo mật trên toàn bộ hoạt động như tiêm nhắc, rò rỉ dữ liệu và ngăn chặn đầu ra độc hại.
  • TCO: Tổng chi phí sở hữu. Bao gồm phí đăng ký, đám mây, thời gian kỹ thuật và chi phí pháp lý, kiểm toán.
  • Triển khai mô hình: Toàn bộ quy trình tải mô hình lên cục bộ/server/edge và vận hành.

“AI phù hợp với tôi là lựa chọn giúp tôi yên tâm cả về hóa đơn thẻ tín dụng hàng tháng và lòng tin của khách hàng.” — Một người bán hàng trực tuyến

Rào cản thực tế: Tam giác bảo mật, tốc độ và ngân sách

Khi thực hiện dự án cá nhân sau giờ làm việc và xử lý dữ liệu khách hàng của công ty, quy mô quyết định là khác nhau. Cá nhân có thể chỉ cần 1-2 đăng ký, nhưng đội nhóm cần xem xét ngân sách và quản trị cùng nhau. Nếu muốn nắm bắt cả bảo mật và tốc độ, cần ngân sách, và để giảm ngân sách, cần bỏ thời gian cho việc tùy chỉnh. Cân bằng của tam giác này sẽ xác định trọng số giữa mã mở và mã khép kín.

Tại đây, chúng tôi sẽ cung cấp các kết hợp “tình huống cụ thể” và “bảng so sánh” rất cụ thể trong phần tiếp theo của Phần 2. Hôm nay là ngày để xây dựng nền tảng cho điều đó.

Dự báo trường hợp: Đáp ứng các tình huống như thế này

  • Tối ưu hóa TCO cho đội ngũ truyền thông thực hiện 600.000 tóm tắt văn bản mỗi tuần
  • Xây dựng đại lý tương tác dựa trên bảo vệ PII cho các tổ chức y tế
  • Xử lý phản hồi tự động và câu hỏi khách hàng dựa trên hình ảnh cho cửa hàng trực tuyến
  • Chiến lược suy diễn edge cho việc vận hành cửa hàng hybrid (offline/online)

Giả thuyết tạm thời: “Người chiến thắng không phải là một mô hình duy nhất”

Người chiến thắng năm 2025 không phải là một cái tên duy nhất. Ở cấp độ hộ gia đình, đội nhóm và doanh nghiệp, “sự kết hợp” sẽ là người chiến thắng. Mô hình khép kín chất lượng cao kết hợp với mô hình mở nhẹ chuyên biệt cho công việc, hoặc mô hình mở chính với bộ lọc an toàn khép kín sẽ trở thành điều bình thường. Ở cấp độ thương hiệu, “vận hành không vấn đề” sẽ định nghĩa chiến thắng, trong khi “sự hài lòng so với chi phí” sẽ định nghĩa chiến thắng ở cấp độ người dùng.

Vì vậy, chúng ta sẽ hỏi “Đội nào sẽ chiến thắng?” hơn là “Sự kết hợp nào trong tình huống của chúng ta mang lại lợi ích lặp lại?”. Câu hỏi này sẽ xuyên suốt toàn bộ Phần 2.

Cảnh báo: Đừng để bị cuốn theo tốc độ cập nhật tính năng

Trong những mùa có nhiều bản cập nhật lớn, đội ngũ thường bị cuốn hút bởi “buổi giới thiệu tuyệt vời”. Tuy nhiên, nếu không có danh sách kiểm tra cho toàn bộ vòng đời từ triển khai, vận hành đến kiểm toán, thì thường sau 3 tháng sẽ gặp vấn đề với lỗi hồi quy và hóa đơn tăng vọt. Phần hôm nay cung cấp một khuôn khổ xác định vấn đề để ngăn chặn rủi ro đó.

Bản đồ của Phần 2: Làm thế nào để đọc và hành động

Trong phần 2, chúng tôi sẽ trình bày các bảng so sánh tiêu chuẩn hóa hơn 2 bảng để hiển thị sự kết hợp tối ưu cho các kịch bản sử dụng chính. Chúng tôi sẽ tổng hợp chất lượng, chi phí, tốc độ, quản trị, và rủi ro khóa chặt bằng số liệu và ví dụ. Trong phần 3, chúng tôi sẽ đưa ra hướng dẫn thực hiện và danh sách kiểm tra, cũng như kết luận bao quát các phần 1 và 2. Hãy ghi nhớ dòng chảy này và bắt đầu tưởng tượng bối cảnh của bạn khi đọc.

Điểm chính hôm nay (tóm tắt phần mở đầu, bối cảnh, và định nghĩa vấn đề)

  • Việc mở so với khép kín không phải là tranh luận sở thích mà là lựa chọn thực tiễn trong đời sống, vận hành và pháp lý.
  • “Sự thông minh của mô hình” quan trọng hơn “sự vững chắc của dịch vụ” sẽ là điểm quyết định vào năm 2025.
  • Người chiến thắng không phải là mô hình đơn lẻ mà là sự kết hợp hybrid phù hợp với bối cảnh.
  • Phần tiếp theo sẽ hướng dẫn các quyết định có thể hành động ngay lập tức thông qua bảng so sánh theo tình huống.

Giờ đây, mọi thứ đã sẵn sàng. Chúng tôi sẽ phân tích “sự kết hợp thông minh giữa AI mã nguồn mở và AI mã khép kín” phù hợp với ngân sách, rủi ro và mục tiêu của bạn trong phần tiếp theo. Các bảng so sánh dễ hành động, ví dụ thực tế và lộ trình hướng tới kết luận đang chờ đón bạn.


Nội dung sâu sắc: AI mã nguồn mở vs AI khép kín, ‘hiệu suất thực tế’ và điểm quyết định của năm 2025

Trong Phần 1, chúng ta đã xác nhận lại ‘tại sao bây giờ chúng ta cần suy nghĩ lại về việc chọn AI’. Giờ đây là lúc để đưa ra những quyết định thực sự có liên quan đến tiền bạc, thời gian và rủi ro dữ liệu. Trong phân khúc này, chúng ta sẽ đi sâu vào cách mà AI mã nguồn mởAI khép kín sẽ có những bảng điểm khác nhau vào năm 2025, từ chi phí, hiệu suất, bảo mật đến độ phức tạp trong vận hành bằng những ví dụ và dữ liệu chi tiết. Bạn muốn có một sự nhanh nhẹn nhẹ nhàng như đạp xe xuyên rừng, hay muốn sự ổn định và dịch vụ như một chuyến cắm trại tự động được thiết lập sẵn? Đó chính là cảm giác mà tôi sẽ so sánh cho bạn.

Các từ khóa chính mà bài viết này thường xuyên đề cập

  • Chi cấu chi phí giữa AI mã nguồn mởAI khép kín
  • Khoảng cách giữa điểm chuẩn và chất lượng cảm nhận: LLM tính thực tiễn
  • Vấn đề hiện trường về chủ quyền dữ liệu, bảo mật, và tuân thủ quy định
  • Tinh chỉnh thực tế và RAG, vận hành đại lý
  • Tự động hóa vận hành và MLOps, tối ưu hóa chi phí dài hạn

1) Chi phí (TCO) và đăng ký vs tự vận hành: ‘Chỉ nhìn vào đăng ký hàng tháng là tính toán một nửa’

Sai lầm phổ biến nhất trong việc so sánh giá là chỉ nhìn vào bảng giá API mà đưa ra kết luận. Tổng chi phí sở hữu thực tế (TCO) cần phải kết hợp tất cả: mô hình kích thước, mẫu lưu lượng suy luận, chiều dài prompt, phối hợp GPU/CPU, chiến lược cache, và chi phí nhân công phát triển và vận hành. Ngân sách cho AI năm 2025 nên được mô hình hóa dựa vào ‘mẫu’ và ‘biến động’ thay vì chỉ dựa vào ‘đơn giá’ để ít bị dao động hơn.

Hạng mục chi phí AI mã nguồn mở (tự lưu trữ) AI khép kín (đăng ký API) Rủi ro/Ghi chú
Đầu tư ban đầu Chi phí giấy phép thấp, có chi phí xây dựng hạ tầng Có thể sử dụng ngay, chi phí onboarding thấp AI mã nguồn mở cần thiết kế chuyển đổi từ PoC→vận hành
Chi phí suy luận biến động Ưu thế khi mở rộng GPU/tận dụng spot cho lưu lượng lớn Chi phí tính theo yêu cầu, tăng mạnh khi lưu lượng đột biến Chiến lược cache/prompt là chìa khóa
Chi phí nhân công Cần MLOps·SRE, có thể giảm dần nhờ tự động hóa Tăng độ phụ thuộc vào nền tảng, chi phí nhân công của đội ngũ tương đối thấp ROI tự động hóa mã nguồn mở tăng khi quy mô lớn hơn
Độ linh hoạt tăng trưởng Ưu thế quy mô kinh tế, có thể tối ưu hóa tùy chỉnh Mở rộng ngang dễ dàng, nhưng có sự biến động về chi phí của nhà cung cấp Yếu tố có chiến lược mở rộng dài hạn là điểm quyết định
Quy định/chủ quyền dữ liệu Tăng cường kiểm soát bằng phát hành riêng tư Tùy thuộc vào lựa chọn vùng/biên giới dữ liệu Cần phải lập bản đồ các mục kiểm toán theo ngành nghề trước

Chẳng hạn, đối với dịch vụ khoảng 5 triệu đến 20 triệu token mỗi tháng, việc tính phí API có lợi thế là đơn giản và có thể dự đoán. Ngược lại, trong giai đoạn mở rộng hàng tỷ token mỗi tháng, tự động hóa MLOps cho lưu trữ tự động sẽ thúc đẩy tối ưu hóa chi phí thực sự. Đặc biệt, khi thêm chiến lược cache liên tục, tinh chỉnh dựa trên adapter tinh chỉnh, và tối ưu hóa chỉ mục nhúng địa phương, có những trường hợp giảm chi phí theo yêu cầu xuống dưới một nửa.

오픈소스 관련 이미지 4
Image courtesy of BoliviaInteligente (via Unsplash/Pexels/Pixabay)

Tuy nhiên, việc tự vận hành rõ ràng có giới hạn là ‘cài đặt ban đầu khó khăn’. Các startup không có đội ngũ vận hành cần phải ít nhất chuẩn hóa các chính sách gateway suy luận, ghi nhật ký và theo dõi, đồng thời đảm bảo tốc độ, chi phí và chất lượng (tách biệt chính sách hệ thống/người dùng/công cụ) ngay từ đầu. API đăng ký có sức hấp dẫn vì có thể bỏ qua tất cả điều này và đi ngay vào các thử nghiệm kinh doanh.

2) Hiệu suất và chất lượng: Cạm bẫy của điểm chuẩn vs cảm nhận của người dùng

Điểm số benchmark cho thấy hướng đi nhưng không đảm bảo hiệu suất kinh doanh. Ngay cả với cùng một mô hình, cảm nhận của người dùng có thể khác nhau rất nhiều tùy thuộc vào phong cách prompt, từ vựng miền, chiều dài ngữ cảnh, và cấu hình toolcall. Đặc biệt, các kịch bản tóm tắt, tăng cường tìm kiếm (RAG), lập trình, và đại lý dựa trên LLM phụ thuộc vào ‘cấu trúc chỉ thị’ và ‘khả năng tiếp cận lý do’ để xác định hiệu suất.

Hạng mục đánh giá Mô hình điểm cao benchmark Chất lượng cảm nhận thực tế (miền) Mô tả
Câu hỏi kiến thức Nhiều mô hình hàng đầu Phụ thuộc vào thiết kế pipeline RAG Tinh chỉnh indexing/chunk/retriever là yếu tố chính
Lập trình/hỗ trợ Mô hình lớn cụ thể xuất sắc Phụ thuộc vào tính tương thích phiên bản repo/thư viện Chiều dài ngữ cảnh và chính sách gọi hàm ảnh hưởng lớn
Tóm tắt tài liệu Cạnh tranh rất gay gắt Phụ thuộc vào hướng dẫn tóm tắt theo mục đích Quy tắc về tông, chiều dài và đính kèm lý do ảnh hưởng đến cảm nhận
Trợ lý hội thoại Mô hình lớn chiếm ưu thế Tinh chỉnh prompt hệ thống và chính sách an toàn Cần thiết kế quy tắc từ chối/tránh né

Dù là cùng một mô hình, ‘cách bạn phân tách và kết nối vấn đề’ sẽ tạo ra trải nghiệm người dùng hoàn toàn khác. Các đội sử dụng mô hình hiệu suất cao nhưng vẫn tạo ra chi phí chìm thực sự là do hạn chế từ prompt và chính sách đại lý.

Mẹo thực tế: Chứng thực hiệu suất không chỉ dựa trên ‘mô hình đơn lẻ’ mà nên được thực hiện ‘theo đơn vị pipeline’. Tự động hóa toàn bộ từ xử lý đầu vào → retriever → tạo ra → xử lý sau → đánh giá, và đưa cảm nhận của người dùng, thời gian giải quyết, và tỷ lệ hỏi lại vào thử nghiệm AB để chất lượng được thể hiện.

3) Bảo mật và chủ quyền dữ liệu: Ngành có quy định càng mạnh thì kiểm soát của mã nguồn mở càng có lợi thế so với sự thuận tiện kiểm toán của API

Trong các ngành như tài chính, chăm sóc sức khỏe, và lĩnh vực công, nơi yêu cầu kiểm toán, ghi chép và kiểm soát truy cập rất cao, việc phát hành riêng tư của AI mã nguồn mở có lợi thế vì có thể kiểm soát biên giới dữ liệu trực tiếp. Ngược lại, nếu cần tài liệu phản hồi kiểm toán nhanh và bộ chứng nhận hoặc cần mở rộng đa vùng trước tiên, thì bộ tài liệu tuân thủ tiêu chuẩn của AI khép kín sẽ tiết kiệm thời gian.

  • Trường hợp A (fintech): Tóm tắt hồ sơ giao dịch nội bộ, gán nhãn rủi ro. Chọn LLM mã nguồn mở riêng tư do yêu cầu tính toàn vẹn nhật ký, kiểm soát truy cập, và triển khai tại chỗ. Hoàn thành KMS nội bộ, kết nối VPC, và theo dõi kiểm toán để vượt qua kiểm toán hàng quý.
  • Trường hợp B (nền tảng nội dung): Tạo bản sao quảng cáo toàn cầu. Tuân thủ quy định sáng tạo và an toàn thương hiệu là điều cốt yếu. Với việc cung cấp vùng API và mẫu chính sách theo khu vực, họ đã chọn mô hình khép kín, rút ngắn thời gian ra mắt.

Cảnh báo: “Nếu là riêng tư thì an toàn” là một hiểu lầm. Cần kiểm tra đồng bộ quyền truy cập vào trọng số mô hình, checkpoint, mã hóa PII trong nhật ký prompt, và quyền xóa GDPR của chỉ mục nhúng để thực sự đạt được tuân thủ quy định.

오픈소스 관련 이미지 5
Image courtesy of BoliviaInteligente (via Unsplash/Pexels/Pixabay)

4) Tốc độ phát hành và độ ổn định: Sự cám dỗ của tính năng mới nhất vs hỗ trợ dài hạn có thể dự đoán

AI mã nguồn mở do cộng đồng dẫn dắt hấp thụ những kiến trúc và kỹ thuật tinh gọn mới với tốc độ chóng mặt. Cải tiến như suy luận hỗn hợp GPU/CPU, lượng tử hóa, và tối ưu hóa cache KV được phản ánh nhanh chóng. Ngược lại, AI khép kín đặt ra độ ổn định và hợp đồng dịch vụ mức độ dự đoán (SLA) làm giá trị cốt lõi. Một số tìm cách giảm thiểu rủi ro bằng cách theo dõi LTS dành cho doanh nghiệp.

Hạng mục AI mã nguồn mở AI khép kín Mẹo quyết định
Tốc độ cập nhật Rất nhanh, dễ dàng hấp thụ đổi mới Chọn lọc, ưu tiên độ ổn định Mở cho thử nghiệm và tối ưu hóa, đóng cho quy định và phát triển chính
SLA/Hỗ trợ Đa dạng nhà cung cấp/cộng đồng Hỗ trợ dựa trên hợp đồng rõ ràng Nếu không thể cho phép ngừng dịch vụ thì SLA là bắt buộc
Rủi ro phát hành Cần quản lý tính tương thích phiên bản Độ ổn định API cao Cần có kế hoạch bảo vệ và phục hồi

Ai sẽ được lợi?

  • Các nhà khám phá phù hợp sản phẩm-thị trường: Thử nghiệm tính năng mới là quyết định then chốt → dẫn dắt mã nguồn mở, kết hợp với API
  • Các doanh nghiệp mở rộng quy mô: Khả năng sử dụng và kiểm toán là cốt lõi → LTS khép kín + bổ sung mã nguồn mở hạn chế

5) Tinh chỉnh, RAG, và đại lý: “Kết nối miền và công cụ” là giá trị thực sự

Thay vì cạnh tranh về thông số của mô hình, cách bạn kết nối ‘dữ liệu và công cụ của mình’ để giải quyết vấn đề sẽ trực tiếp chuyển thành lợi nhuận. Adapter nhẹ (LoRA/QLoRA), đồ thị tri thức, bộ nhớ dài hạn, gọi hàm, và điều phối quy trình chính là những liên kết này. Tinh chỉnh có lợi thế về sự tuân thủ quy định chi tiết và giọng điệu, trong khi RAG mạnh về kiến thức thực tế cập nhật liên tục. Đại lý có vai trò nâng cao tỷ lệ hoàn thành công việc trong các kịch bản nhiều công cụ.

  • Tinh chỉnh nhẹ: Dựa trên adapter có thể thực hiện với GPU hạn chế. Cải thiện độ tuân thủ về giọng điệu, định dạng và chính sách.
  • Tối ưu hóa RAG: Chiến lược chunk (đoạn/văn bản theo nghĩa), tìm kiếm lai (từ khóa + vector), bí quyết xếp hạng lại.
  • Thiết kế tác nhân: Quyền gọi hàm, xử lý lỗi công cụ, ngăn chặn vòng lặp, đường ray chi phí.

Nền tảng đóng kín có thể bắt đầu hoạt động nhanh chóng nhờ vào pipeline quản lý và giám sát, bộ lọc nội dung, và chính sách an toàn đã được thiết lập sẵn. Ngược lại, stack mã nguồn mở có lợi trong việc tối ưu hóa KPI thông qua việc điều chỉnh chi tiết và kết hợp hệ thống kiến thức nội bộ.

6) Rủi ro hệ sinh thái và chuỗi cung ứng: Không bị xáo trộn bởi sự thay đổi giấy phép, chính sách và API

Trong khoảng thời gian từ 2024 đến 2025, đã có nhiều thay đổi về chính sách giấy phép, cập nhật chính sách tiếp cận mô hình và thay đổi quy định theo quốc gia. Các nhóm đặt cược toàn bộ vào một nhà cung cấp hoặc một mô hình sẽ gặp khó khăn với lộ trình của họ từng lúc. Nếu chọn thiết kế cơ bản đa phương thức, đa mô hình và đa nhà cung cấp, họ có thể phân tán cú sốc. Chiến lược duy trì quy tắc định tuyến linh hoạt từ cổng suy diễn và giữ mẫu lệnh độc lập với mô hình sẽ trở thành mạng lưới an toàn.

오픈소스 관련 이미지 6
Image courtesy of Markus Spiske (via Unsplash/Pexels/Pixabay)

7) Ba kịch bản lựa chọn năm 2025 từ các ví dụ

Giải pháp tối ưu sẽ khác nhau tùy thuộc vào nguồn lực, cường độ quy định và tốc độ tăng trưởng của từng nhóm. Hãy vẽ ra lộ trình thực tế với ba kịch bản đại diện dưới đây.

  • Kịch bản 1) Startup giai đoạn đầu cần thử nghiệm nhanh
    • Khuyến nghị: Ra mắt ngay với API đóng kín → Khi KPI được xác nhận, triển khai một phần AI mã nguồn mở để tiết kiệm chi phí (FAQ, tóm tắt, v.v. trong các khoảng thời gian lưu lượng truy cập lặp lại).
    • Điểm chính: Đo lường khả năng quan sát (chi phí, chất lượng), bảo vệ độ dài lệnh/ ngữ cảnh, bộ nhớ token.
  • Kịch bản 2) Thị trường trung bình quan trọng với di sản và quyền kiểm soát dữ liệu
    • Khuyến nghị: Pipeline RAG riêng tư (kết hợp tài liệu/CSDL) + Tinh chỉnh nhẹ cho các tác vụ chính. Chuẩn hóa quyền truy cập và ghi nhật ký để đối phó với kiểm toán.
    • Điểm chính: Hệ thống quản lý kiến thức nội bộ, phân loại không xác định, tự động hóa quy trình quyền xóa.
  • Kịch bản 3) Dịch vụ toàn cầu, ưu tiên độ ổn định và SLA
    • Khuyến nghị: Vận hành kịch bản chính với AI đóng kín LTS + Phân tán rủi ro theo khu vực. Chỉ chuyển sang lớp suy diễn mã nguồn mở trong các khoảng thời gian chi phí cao.
    • Điểm chính: Cách ly sự cố, ngân sách lỗi, sao lưu đa vùng, lập bản đồ quy định.

8) Meta vận hành nắm bắt tốc độ, chất lượng và chi phí: Bảng so sánh thực tế

Cuối cùng, đây là bảng so sánh đã sắp xếp lại các điểm quyết định từ góc độ vận hành. Hãy đặt tình trạng hiện tại của nhóm vào từng mục để có cái nhìn rõ hơn về bên nào có lợi hơn.

Trục quyết định Điều kiện có lợi cho AI mã nguồn mở Điều kiện có lợi cho AI đóng kín Điểm kiểm tra
Tốc độ ra mắt Các mẫu và hạ tầng nội bộ đã sẵn sàng Cần ra mắt ngay ngày mai Thời gian chuyển đổi từ PoC sang sản phẩm
Đường cong chi phí Lưu lượng lớn, mở rộng lâu dài Quy mô vừa và nhỏ, biến động thấp Tỷ lệ tăng trưởng token và gọi hàng tháng
Cường độ quy định Cần kiểm soát trực tiếp biên giới dữ liệu Đề cao tài liệu chuẩn hóa và sự tiện lợi trong kiểm toán Chu kỳ kiểm toán và số lượng mục yêu cầu
Năng lực nhóm Có MLOps, SRE, kỹ sư dữ liệu Tập trung vào sản phẩm, hạn chế hạ tầng Chi phí nhân công vận hành so với phí đăng ký
Độ nhất quán chất lượng Có thể điều chỉnh bằng cách tối ưu hóa pipeline Đáng tin cậy trong chính sách chất lượng nền tảng Tỷ lệ từ chối, tỷ lệ hỏi lại, dữ liệu CS

9) Chi tiết thực tế: Lệnh và ngữ cảnh quyết định chi phí và chất lượng

Tại sao kết quả lại khác nhau dù sử dụng cùng một mô hình hoặc nền tảng? Đó là nhờ vào chính sách lệnh và chiến lược ngữ cảnh. Giữ cho chỉ thị hệ thống ngắn gọn và có cấu trúc, tách biệt yêu cầu và lý do của người dùng, và thiết kế gọi hàm như một hợp đồng rõ ràng sẽ giúp giảm chi phí token trong khi vẫn nâng cao độ chính xác. Ngữ cảnh nên được áp dụng theo nguyên tắc 'tối thiểu cần thiết', chia nhỏ các tác vụ phụ và chỉ cung cấp lý do cần thiết từng bước một cách hiệu quả hơn.

  • Lệnh hệ thống: Chuẩn hóa 4 yếu tố: vai trò, giọng điệu, định dạng đầu ra, quy tắc lý do.
  • Ngữ cảnh: Tập trung vào chunk 200-400 token, ưu tiên tính gần gũi về ngữ nghĩa, cấm đưa vào quá nhiều bối cảnh.
  • Gọi hàm: Phiên bản snapshot của schema, cần có ngoại lệ, thử lại, và ngắt mạch.
  • Bộ nhớ cache: Bộ nhớ cache theo cấp độ dựa trên hash của mẫu lệnh; sử dụng cùng với phát hiện hồi quy chất lượng.

10) Tại sao “chiến lược hỗn hợp” là câu trả lời: Kinh tế của định tuyến và sao lưu

Khăng khăng sử dụng một stack đơn là một rủi ro. Để phân tán chi phí, quy định và sự cố, định tuyến đa mô hình phải trở thành điều cơ bản. Ví dụ, FAQ và tóm tắt có thể thực hiện bằng AI mã nguồn mở nhẹ, trong khi suy diễn phức tạp và lập trình có thể được gửi đến mô hình cao cấp AI đóng kín, và trong trường hợp xảy ra sự cố, lập tức chuyển sang mô hình thay thế sẽ đảm bảo ổn định và TCO.

Quy tắc định tuyến Mô hình cơ bản Thay thế (sao lưu) Hiệu quả
FAQ/ Tóm tắt ngắn Mã nguồn mở nhẹ Mô hình đóng kín vừa Giảm chi phí, tăng tốc độ
Suy diễn/ lập trình khó khăn Mô hình đóng kín lớn Mô hình mã nguồn mở vừa lớn Giữ chất lượng, khả năng chống lại sự cố
Dữ liệu nhạy cảm với quy định Mã nguồn mở riêng tư Mô hình đóng kín cùng vùng Tuân thủ biên giới dữ liệu

11) Gợi ý kết hợp theo loại nhóm: Thiết kế stack nhìn một cái là thấy

Nhóm của bạn gần thuộc loại nào? Dưới đây là gợi ý kết hợp khởi đầu phù hợp với tình trạng hiện tại.

  • Nhóm dẫn dắt sản phẩm: Ra mắt nhanh chóng với API đóng kín → Tích lũy dữ liệu → Chỉ phân tán mã nguồn mở trong các khoảng thời gian chi phí cao.
  • Nhóm có năng lực dữ liệu và nền tảng: Tối ưu hóa pipeline dựa trên mã nguồn mở → Đưa vào một số tác vụ bộ tăng cường hiệu suất đóng kín.
  • Cơ quan có quy định cao: Kết hợp tài liệu kiểm toán và SLA của AI mã nguồn mởAI đóng kín để cân bằng rủi ro.

Điểm chính: Chiến lược hỗn hợp có vẻ “phức tạp” nhưng về lâu dài lại là lựa chọn đơn giản nhất. Bởi vì nó hấp thụ cú sốc từ sự cố, chính sách và biến động giá cả thông qua định tuyến và sao lưu. Chỉ cần giữ cho các mẫu lệnh, nhật ký, và chỉ số được chuẩn hóa, bạn có thể thay đổi mô hình như thay thế các bộ phận.

12) Chi phí ẩn dễ bị lãng quên: Sáu điều khác ngoài token

Để không bị bất ngờ muộn màng khi chỉ xem giá token, hãy chắc chắn đưa các mục sau vào ngân sách của bạn.

  • Khả năng quan sát: Lấy mẫu lệnh/đáp ứng, gán nhãn chất lượng, phát hiện độ trôi.
  • Quản trị dữ liệu: Che phủ PII, xử lý quyền xóa, lưu/truy vấn nhật ký truy cập.
  • Quản lý chỉ mục: Vòng đời tài liệu, chi phí tái chỉ mục, xử lý đa ngôn ngữ.
  • Chi phí thất bại: Thời gian chờ, thử lại, điều chỉnh ngưỡng ngắt mạch.
  • Đào tạo và tinh chỉnh: Phiên bản hóa adapter, theo dõi thí nghiệm, đăng ký mô hình.
  • Tự động hóa kiểm tra: Kiểm tra hồi quy, kiểm tra đơn vị mẫu lệnh, sandbox.

13) Chiến thuật quản lý chất lượng: "Bảo vệ trước và sau" với hai trục

Trong giai đoạn trước, hãy xác minh tính hợp lệ của đầu vào, độ dài và trạng thái giấy phép, và trong giai đoạn sau, hãy thực hiện kiểm tra bộ lọc an toàn, điểm số lý do và kiểm tra sơ đồ đầu ra. Cả hai trục phải được thiết lập để duy trì tốc độ hoạt động ngay cả trong các ngành nhạy cảm. Nếu kết hợp gán nhãn tự động và đánh giá của con người, bạn có thể tạo ra vòng lặp để giải thích kết quả A/B mà không cần mở rộng chức năng mà không có hồi quy chất lượng hàng quý.

14) Đến đâu thì tự động hóa: Điểm tới hạn từ góc độ MLOps

Tự động hóa MLOps rất quan trọng vào thời điểm đầu tư. Với hàng ngàn lệnh mỗi ngày, việc tự động hóa quá mức có thể trở thành kỹ thuật thừa thãi, nhưng khi vượt qua hàng triệu lệnh, tự động hóa sẽ trở thành giải pháp giảm chi phí và phòng ngừa sự cố. Hãy từng bước triển khai theo dõi thí nghiệm, đăng ký mô hình/lệnh, phiên bản hóa tính năng/chỉ mục, triển khai canary, và đánh giá trực tuyến.

Đề xuất thứ tự triển khai

  • Bước 1: Thu thập nhật ký, bảng điều khiển, giám sát chi phí/độ trễ
  • Bước 2: Quản lý mẫu lệnh, kiểm tra A/B
  • Bước 3: Tự động hóa định tuyến/sao lưu và ngắt mạch
  • Bước 4: Đánh giá trực tuyến và tối ưu hóa tự động

15) Ngôn ngữ thuyết phục nhóm: Những gì quản lý, bảo mật và phát triển mong muốn nghe

Dù logic quyết định là giống nhau nhưng ngôn ngữ lại khác nhau. Đối với quản lý, hãy nhấn mạnh ROI, tốc độ ra mắt thị trường và phân tán rủi ro; đối với nhóm bảo mật, hãy đề cập đến biên giới dữ liệu, theo dõi kiểm toán và xử lý quyền xóa; đối với nhóm phát triển, hãy đặt API ổn định, dễ dàng gỡ lỗi và tự động hóa kiểm tra lên hàng đầu. Ngay cả khi chiến lược giống nhau, 'nói với ai và như thế nào' sẽ quyết định việc phê duyệt.

16) Vượt xa một câu tóm tắt: Những người chiến thắng năm 2025 là những đội có định nghĩa vấn đề rõ ràng

Cuối cùng, chất lượng lựa chọn công nghệ phụ thuộc vào độ rõ ràng trong việc định nghĩa vấn đề. Chúng ta cần có khả năng chuyển đổi giữa sức mạnh kiểm soát và khả năng mở rộng mà AI mã nguồn mở cung cấp, và sự ổn định cùng tốc độ mà AI đóng kín hứa hẹn. Đồng thời nâng cao yêu cầu về tối ưu hóa chi phí, an ninh, và tuân thủ quy định lên thành quy tắc meta, để có thể thiết lập tiêu chuẩn vận hành mà không bị xáo trộn dù có kết hợp mô hình nào. Đây chính là 'điều kiện chiến thắng thực sự' trong cuộc chiến AI năm 2025.


Hướng dẫn thực hiện: Tạo danh mục đầu tư AI mã nguồn mở vs AI đóng kín phù hợp với chúng tôi trong 90 ngày

Giờ đây, thời gian chọn lựa đã đến. Phải hành động thực sự để đạt được kết quả, không chỉ là những ý tưởng trong đầu. Hướng dẫn thực hiện dưới đây được thiết kế cho quyết định nhanh chóng theo cách B2C, “bắt đầu nhỏ, học nhanh, quản lý rủi ro và kiểm soát chi phí.” Đây là một bản kế hoạch từng bước có thể áp dụng cho bất kỳ tổ chức nào, với chiến lược lai sử dụng cả AI mã nguồn mởAI đóng kín làm mặc định.

Các nguyên tắc cốt lõi rất đơn giản. Thứ nhất, bắt đầu từ những thử nghiệm có giá trị kinh doanh được xác minh nhanh chóng. Thứ hai, xác định ranh giới dữ liệu và chi phí. Thứ ba, tích hợp khả năng thay đổi mô hình từ trước. Thứ tư, mở rộng thành công nhỏ ra toàn tổ chức. Hãy cùng chúng ta thực hiện lộ trình 90 ngày này.

MẸO: Mục tiêu của hướng dẫn này không phải là “khóa chặt người chiến thắng”, mà là tạo ra “cấu trúc có thể đứng về phía người chiến thắng bất cứ lúc nào”. Thiết kế dễ dàng thay thế mô hình sẽ là lợi thế cạnh tranh.

Trong phân đoạn này, chúng ta sẽ đặc biệt xem xét chi tiết của việc thực hiện. Danh sách kiểm tra cho bảo mật, chi phí và hiệu suất sẽ được đưa ra, cùng với các công cụ và tổ hợp stack có thể áp dụng ngay. Nếu bắt đầu hôm nay, bạn sẽ được hướng dẫn để tạo ra sự thay đổi con số trong quý này.

오픈소스 관련 이미지 7
Image courtesy of Darran Shen (via Unsplash/Pexels/Pixabay)

0~2 tuần: Vẽ bản đồ giá trị và rủi ro (nhẹ nhàng và nhanh chóng)

  • Xếp hạng trường hợp sử dụng: Chấm điểm theo thứ tự doanh thu trực tiếp (chuyển đổi giỏ hàng/up-sell), tiết kiệm chi phí (tự động hóa tư vấn), giảm rủi ro (tóm tắt dữ liệu nhạy cảm).
  • Ranh giới dữ liệu: Chỉ định “nhãn đỏ” cho dữ liệu nào không được phép ra ngoài. Dữ liệu cá nhân, thanh toán, y tế, và bí mật doanh nghiệp phải luôn bị cấm gửi qua API bên ngoài.
  • Thiết lập 3 chỉ số thành công: Độ chính xác của phản hồi (ví dụ: F1, pass@k), tốc độ xử lý (độ trễ 95p), chi phí mỗi lần (tính theo CPU/GPU và token). Ba yếu tố này là la bàn cho mọi quyết định.
  • Quét tùy chọn: Nắm giữ 2~3 ứng viên cho AI đóng kín (ví dụ: GPT-4o, Claude 3.5, Gemini 1.5) và AI mã nguồn mở (Llama 3.1/3.2, Mistral/Mixtral, Qwen2.5, Yi, Gemma).
  • Vạch ra quy định và quản trị: Định nghĩa thời gian bảo quản dữ liệu, phạm vi ghi nhật ký, và quy trình phê duyệt nội bộ. Nguyên tắc quyền riêng tưquản trị cần được tài liệu hóa ngay từ đầu.

3~6 tuần: Thiết kế thử nghiệm, danh sách ngắn mô hình, và xây dựng hệ thống đánh giá

  • Danh sách ngắn mô hình: Ba trục gồm văn bản, mã, và đa phương tiện. Mô hình nhẹ (7~13B) được đặt cho edge/on-premise, mô hình trung bình (34~70B) cho server/RAG, và mô hình tiên phong (đóng kín) cho suy diễn/sáng tạo phức tạp.
  • Đánh giá ngoại tuyến: Tạo bộ câu hỏi vàng 200~1,000 câu trong nội bộ. Đánh dấu các câu hỏi về kiến thức miền, độ chính xác, và tuân thủ tài chính/pháp lý riêng.
  • Thí nghiệm trực tuyến: Thu thập dữ liệu nhấp chuột và chuyển đổi thực tế của người dùng qua A/B testing. Nếu là RAG dựa trên tài liệu, hãy bao gồm Top-k, kích thước chunk và tái xếp hạng vào ma trận thí nghiệm.
  • Rào cản bảo mật: Áp dụng che giấu PII, yêu cầu chính sách (cấm từ, yêu cầu nguồn chứng cứ), và bộ lọc nội dung (kiểm tra tỷ lệ phát hiện sai/lỗi).
  • Cấu trúc dịch vụ: Chế độ API (đóng kín) + chế độ tự lưu trữ (mã nguồn mở) với định tuyến kép. Đặt một cổng có thể chuyển đổi theo sự cố, chi phí, và vấn đề pháp lý.

7~12 tuần: Nâng cao hoạt động, tối ưu hóa chi phí, và mở rộng trong tổ chức

  • Cache và dọn dẹp prompt: Biến đổi phản hồi bán cấu trúc thành mẫu để giảm số token prompt. Các truy vấn có câu trả lời lặp lại được cache để xử lý ngay lập tức.
  • Chưng cất và lượng tử hóa mô hình: Những trường hợp thường xuyên sẽ được chưng cất thành mô hình mở nhỏ, tiết kiệm chi phí suy diễn bằng cách lượng tử hóa 4~8bit.
  • Công tắc đa phương thức: Nếu đầu vào hình ảnh và giọng nói gia tăng, hãy tách định tuyến theo từng phương thức. Văn bản sẽ được nhẹ hóa, chỉ có thị giác và âm thanh gọi mô hình tiên phong.
  • Khả năng quan sát: Ghi lại prompt, phản hồi, mức sử dụng, và lỗi theo đơn vị sự kiện. Theo dõi hallucination, nội dung độc hại, và SLA độ trễ qua bảng điều khiển.
  • Mở rộng tổ chức: Chia sẻ các trường hợp thắng lợi ban đầu trong nội bộ. Phát hành catalog mẫu mà bảo mật, phát triển và các bộ phận hoạt động cùng sử dụng.

Đề xuất công cụ (tổ hợp nhanh)

  • Phục vụ: vLLM, TGI, Ollama, llama.cpp (edge)
  • Điều phối: LangChain, LlamaIndex
  • Đánh giá và quan sát: Ragas (RAG), Langfuse·Arize Phoenix (quan sát)
  • Cơ sở dữ liệu vector: FAISS, Milvus, pgvector
  • Rào cản: Guardrails, xác thực dựa trên Pydantic

오픈소스 관련 이미지 8
Image courtesy of BoliviaInteligente (via Unsplash/Pexels/Pixabay)

Bản thiết kế theo từng trường hợp sử dụng

1) Tự động hóa tư vấn khách hàng (Cải thiện chuyển đổi và CS cùng lúc)

  • Cấu trúc đề xuất: RAG tài liệu nội bộ + suy diễn mô hình mở nhẹ + định tuyến sao lưu đóng kín chỉ cho các truy vấn phức tạp
  • Lý do: Nếu tỷ lệ chính xác của RAG trên 80%, mô hình mở là đủ. Chỉ gọi mô hình tiên phong cho các trường hợp cần tăng cường, tiết kiệm chi phí.
  • Kiểm tra: Bao gồm liên kết nguồn và câu chứng minh trong phản hồi, che giấu thông tin nhạy cảm, quy trình tự động khiếu nại với các phản hồi không chính xác.

2) Trợ lý mã (Cảm nhận năng suất phát triển)

  • Cấu trúc đề xuất: Lập chỉ mục kho lưu trữ cục bộ + mô hình mở chuyên ngành mã nhỏ + tạo thử nghiệm từ mô hình đóng kín
  • Lý do: Mã nội bộ là tài sản cốt lõi. Ưu tiên on-premise để giảm thiểu rủi ro quyền riêng tư.
  • Kiểm tra: Phát hiện tự động thông báo giấy phép, quy tắc lint bảo mật tích hợp, tự động hóa tóm tắt PR và đánh giá.

3) Tạo nội dung marketing và hình ảnh (Tốc độ và tính nhất quán về giọng điệu)

  • Cấu trúc đề xuất: Thư viện prompt persona + RAG hướng dẫn thương hiệu + hỗ trợ đóng kín cho đa ngôn ngữ
  • Lý do: Tính tự nhiên đa phương thức và đa ngôn ngữ là điểm mạnh của mô hình tiên phong. Kiểm soát chi phí cho các bản sao lặp lại thông qua mô hình mở.
  • Kiểm tra: Bộ lọc từ cấm và biểu thức pháp lý, tự động thu thập dữ liệu thử nghiệm AB, tiến hóa prompt dựa trên hiệu suất.

4) Hiện trường/Edge (Nhận thức và ra quyết định ngoại tuyến)

  • Cấu trúc đề xuất: Triển khai mô hình mở lượng tử hóa trên thiết bị di động và cổng + đồng bộ hóa đám mây
  • Lý do: Mạng không ổn định và nhạy cảm với độ trễ. Mô hình mở tối ưu hóa cho on-premise và edge là có lợi về cả chi phí và trải nghiệm.
  • Kiểm tra: Xóa PII trước khi truyền tải, cập nhật định kỳ snapshot mô hình, vòng phản hồi hiện trường.

CẢNH BÁO: Sức mạnh của mô hình tiên phong rất hấp dẫn. Tuy nhiên, việc gọi API một cách bừa bãi có thể dẫn đến “hóa đơn khổng lồ” và “khóa chặt nhà cung cấp”. Hãy tài liệu hóa các tiêu chí định tuyến (độ khó, nhạy cảm, giới hạn chi phí) và thiết lập giới hạn ngân sách hàng tháng cùng với tự động throttle là điều cần thiết.

Điểm mấu chốt của hoạt động lai: Cách kiểm soát chi phí, hiệu suất và quản trị cùng lúc

5 yếu tố kiểm soát chi phí (TCO)

  • Giảm thiểu token: Rút gọn prompt hệ thống và chỉ dẫn. Kết hợp các ngữ cảnh lặp lại thành khóa cache để loại bỏ token trùng lặp.
  • Chính sách gọi: Các câu hỏi nhẹ thì sử dụng mô hình mở, trong khi các câu hỏi khó và nhạy cảm thì dùng mô hình đóng kín. Tự động thu nhỏ khi vượt ngưỡng.
  • Chiến lược GPU: Kết hợp giữa spot và on-demand, chuyển công việc quy mô lớn vào ban đêm. Giảm chi phí bằng cách điều chỉnh lượng tử hóa và kích thước batch.
  • Chi phí dữ liệu: Cân nhắc đến embedding vector, lưu trữ và chi phí xuất. Giảm chi phí thoát bằng máy chủ embedding nội bộ.
  • Định giá SLA: Xây dựng các gói phí theo mức độ độ trễ và độ chính xác, đồng thời truyền bá nhận thức về chi phí cho khách hàng nội bộ.

Điểm điều chỉnh hiệu suất (Độ chính xác và độ trễ)

  • Chất lượng RAG: Thí nghiệm kích thước chunk, độ chồng lấn và tái xếp hạng. Đảm bảo khả năng xác minh với việc làm nổi bật các câu chứng minh.
  • Kỹ thuật prompt: Cấu trúc vai trò, giới hạn và định dạng đầu ra. Ngăn chặn các trường hợp thất bại bằng cách xác thực schema đầu ra.
  • Trên thiết bị: Lượng tử hóa 4/8bit + suy diễn kết hợp CPU/GPU. Loại bỏ độ trễ phản hồi đầu tiên với cache prime.

Quản trị (An toàn, trách nhiệm và khả năng theo dõi)

  • Minh bạch hóa đường đi dữ liệu: Ghi nhật ký sự kiện từ đầu vào→RAG→mô hình→xử lý sau→lưu trữ.
  • Chính sách nội dung: Phân loại cấm, lưu ý và cho phép, vòng lặp báo cáo về phát hiện sai/lỗi.
  • Theo dõi kiểm toán: Lưu trữ phiên bản, prompt, và hash trọng số. Thiết lập cấu trúc có thể tái hiện trong trường hợp tranh chấp.
Điểm hành động: “Nếu việc thay thế mô hình diễn ra trong 1 ngày, chúng ta sẽ luôn là đội chiến thắng.” Hãy tiêu chuẩn hóa định tuyến, prompt và đánh giá để ngay cả khi thay đổi mô hình, dịch vụ vẫn không bị ngừng lại.

Danh sách kiểm tra: 30 mục cần xác nhận theo vai trò

Quản lý (CEO/Lãnh đạo BU)

  • [ ] Có tập trung vào 1~2 trường hợp sử dụng trực tiếp tạo giá trị cho khách hàng không?
  • [ ] Các chỉ số mục tiêu (tỷ lệ chuyển đổi, tốc độ phản hồi, chi phí mỗi lần) đã được thiết lập thành số liệu chưa?
  • [ ] Với chiến lược lai, liệu dịch vụ có thể duy trì khi một bên gặp sự cố không?

Sản phẩm (PO/PM)

  • [ ] Đã thống nhất bộ câu hỏi vàng 200+ và tiêu chí Pass chưa?
  • [ ] Thiết kế thí nghiệm A/B và tính toán số lượng mẫu đã hoàn tất chưa?
  • [ ] Có quy trình thay thế cho các phản hồi không thành công (truy vấn sửa đổi, chuyển đổi người) không?

Kỹ thuật (ML/Nền tảng)

  • [ ] Các quy tắc định tuyến mô hình tại cổng đã được định nghĩa bằng cả mã và chính sách chưa?
  • [ ] Việc triển khai vLLM/TGI và thu thập log/metric đã được tiêu chuẩn hóa chưa?
  • [ ] Việc thay thế embedding và vector store có thể thực hiện mà không bị gián đoạn không?

Bảo mật/Compliance (CISO/Pháp lý)

  • [ ] Dữ liệu cần cấm truyền ra bên ngoài có bị chặn kỹ thuật trong hệ thống không?
  • [ ] Thời gian bảo quản dữ liệu, chính sách xóa và kiểm soát truy cập có khớp với tài liệu và hệ thống không?
  • [ ] Đã xem xét các điều khoản SLA của nhà cung cấp, xử lý dữ liệu và phản hồi kiểm toán chưa?

Dữ liệu/Nghiên cứu

  • [ ] Các tiêu chí recall, độ chính xác và ghi nguồn RAG đã được thiết lập chưa?
  • [ ] Có kiểm tra tự động cho prompt và schema đầu ra không?
  • [ ] Việc phát hiện trôi dạt mô hình và chu kỳ tái học có rõ ràng không?

Hoạt động (Bán hàng/CS/Marketing)

  • [ ] Các từ cấm, phong cách và hướng dẫn giọng điệu đã được phản ánh trong rào cản hệ thống chưa?
  • [ ] Các chỉ số ticket CS và chiến dịch đã được tích hợp vào bảng điều khiển chưa?
  • [ ] Nút báo cáo phản hồi không thành công và vòng lặp phản hồi có dễ sử dụng không?

Kiểm tra ngăn chặn thất bại

  • “Mặc dù tỷ lệ chính xác thấp nhưng vẫn tiến hành” là điều cấm kỵ. Hãy đảm bảo kiểm tra đường cong học tập qua các thử nghiệm quy mô nhỏ.
  • Nếu phụ thuộc hoàn toàn vào một loại mô hình, rủi ro sẽ tập trung. Ít nhất 2 loại mô hình cần được chuẩn hóa.
  • Nếu đường biên quyền riêng tư không rõ ràng, tai nạn chỉ là vấn đề thời gian. Hãy chia sẻ ví dụ về dữ liệu cấm và cho phép bằng ngôn ngữ thực địa.

Công thức kỹ thuật có thể áp dụng ngay

Bước nhảy 3 tầng cho hiệu suất RAG

  • Bước 1: Dọn dẹp tài liệu (loại bỏ trùng lặp, củng cố tiêu đề, tách bảng/các khối mã) + chunk 600~1,000 token + 10~20% độ chồng lấn
  • Bước 2: Tìm kiếm sơ bộ BM25 + tái xếp hạng embedding và tạo bản tóm tắt
  • Bước 3: Làm nổi bật lý do trong câu trả lời + ghi nguồn URL + hỏi phản biện (“Trong trường hợp nào có thể sai?”)

5 công tắc giảm chi phí

  • Cache: Tách biệt và đếm hit cho truy vấn giống nhau và gần giống. Cache hit sẽ được phản hồi miễn phí/ở lớp giá thấp.
  • Ưu tiên mô hình nhẹ: Các phân loại ý định đơn giản và chuyển đổi định dạng sử dụng mô hình 7~13B. Chỉ sử dụng mô hình tiên phong khi cần thiết.
  • Tóm tắt prompt: Biến các chỉ dẫn thành mẫu, loại bỏ ngữ cảnh không cần thiết. Khuyến nghị quy cách 3 dòng “Mục tiêu, Giới hạn, Định dạng đầu ra”.
  • Chạy lô vào ban đêm: Chuyển các tác vụ tạo lớn, embedding và học vào các phiên spot vào ban đêm.
  • Quy định hạn ngạch/throttle: Đặt giới hạn hàng ngày cho từng người dùng/nhóm và giới hạn tốc độ để ngăn ngừa việc tăng phí đột ngột.

Thêm rào cản bảo mật và độ tin cậy

  • Che giấu PII: Phát hiện mẫu số điện thoại, số CMND và thẻ tín dụng rồi thực hiện bí danh hóa. Bao gồm quy tắc ngăn chặn phục hồi ngược.
  • Bộ lọc nội dung: Phát hiện các biểu thức gây hại, thiên lệch và vi phạm pháp luật. Theo dõi sai/lỗi phát hiện.
  • Siêu dữ liệu kiểm toán: Phiên bản mô hình, hash prompt, ID tài liệu chứng minh RAG, nhật ký quyết định định tuyến.

오픈소스 관련 이미지 9
Image courtesy of Declan Sun (via Unsplash/Pexels/Pixabay)

Bảng tóm tắt dữ liệu: Chiến lược gợi ý theo trường hợp sử dụng

Trường hợp sử dụng Loại mô hình gợi ý Lý do chính Ghi chú về chi phí/rủi ro
Chatbot kiến thức nội bộ (RAG) Mã nguồn mở ưu tiên + Sao lưu khép kín Đủ nhẹ nếu đảm bảo tỷ lệ chính xác dựa trên nguồn Yêu cầu che giấu PII và chỉ rõ nguồn
Đáp ứng thực tế khách hàng Định tuyến lai Phân nhánh theo độ khó và độ nhạy Giới hạn ngân sách hàng tháng và hiển thị SLA
Hỗ trợ và đánh giá mã Mã nguồn mở tại chỗ Ưu tiên IP và bảo mật Giám sát điều khoản cấp phép
Tạo nội dung tiếp thị (đa ngôn ngữ/hình ảnh) Khép kín ưu tiên + Bộ nhớ mở Sự sáng tạo và tính tự nhiên trong nhiều ngôn ngữ Bộ lọc từ cấm và quy định
Tóm tắt báo cáo phân tích Mã nguồn mở Tối ưu cho tóm tắt có cấu trúc Kiểm tra định dạng và sơ đồ
Offline tại hiện trường/mobile Mã nguồn mở phân loại Độc lập mạng lưới và độ trễ thấp Đồng bộ định kỳ
Suy diễn chính xác cao/kế hoạch phức tạp Khép kín Hiện tại là ưu thế của Frontier Giới hạn chi phí và chiến lược lấy mẫu
Âm thanh/thị giác thời gian thực Khép kín + Hỗ trợ thị giác nhẹ Chất lượng phát trực tiếp và độ trễ Tối ưu hóa mạng

Câu hỏi & trả lời sử dụng ngay tại hiện trường

C1. Dữ liệu của chúng tôi không được phép ra ngoài. Làm thế nào để bắt đầu?

Tự lưu trữ mô hình mở + máy chủ nhúng nội bộ. Đừng tuyệt đối cấm API bên ngoài, mà hãy kiểm tra giá trị trước bằng bộ dữ liệu không xác định và không nhạy cảm, sau đó chỉ định tuyến khép kín có hạn chế cho các trường hợp cần thiết.

C2. Quản lý mô hình lai không phức tạp sao?

Biến chính sách thành mã hóa tại cổng và tiêu chuẩn hóa sơ đồ đầu vào và đầu ra sẽ giảm đáng kể độ phức tạp. Ban đầu hãy vận hành chỉ 2 mô hình và giảm độ phức tạp cảm nhận bằng bảng điều khiển giám sát.

C3. Chúng tôi nên sử dụng chỉ số nào để xác định thắng thua?

Sử dụng chỉ số đơn lẻ được tính bằng giá trị mà người dùng cảm nhận. Ví dụ: “Điểm hài lòng của khách hàng so với chi phí cho mỗi trường hợp CS”. Kết nối hiệu suất, tốc độ và chi phí với chỉ số này sẽ giúp quyết định nhanh chóng hơn.

Danh sách từ khóa: AI mã nguồn mở, AI khép kín, Xu hướng AI 2025, AI lai, Tổng chi phí sở hữu (TCO), Bảo mật riêng tư, MLOps, Tại chỗ, Khóa nhà cung cấp, Đánh giá mô hình

Playbook hoạt động thực tiễn: Tạo ra kết quả trong một tuần

Ngày 1~2: Sơ đồ và bộ vàng

  • Quyết định sơ đồ đầu ra (định dạng JSON/bảng/câu) và danh sách từ cấm.
  • Làm sạch 200 câu hỏi thực tế từ khách hàng để tạo bộ vàng.

Ngày 3~4: RAG và mô hình đường đôi

  • Xây dựng chỉ mục vector (dọn dẹp tài liệu → nhúng → lập chỉ mục → xếp hạng lại).
  • Thống nhất mẫu đầu vào cho mô hình mở và mô hình khép kín.

Ngày 5~7: Kiểm tra A/B và biện pháp bảo vệ

  • Chấm điểm offline với 200 câu đã gán nhãn, A/B online với 50 câu.
  • Kết nối che giấu PII, bộ lọc nội dung và nhật ký kiểm toán.
  • Thiết lập giới hạn ngân sách hàng tháng, hạn mức và tự động điều chỉnh.

Tóm tắt chính (chỉ cần nhớ đoạn này)

  • AI lai sẽ là mặc định vào năm 2025: mô hình mở nhẹ cho công việc hàng ngày, Frontier cho sức mạnh tức thì.
  • Đánh giá bằng dữ liệu của tôi: bộ vàng và A/B là la bàn cho mọi quyết định.
  • TCO là vấn đề thiết kế: giảm thiểu đầu vào, bộ nhớ và phân loại một cách cấu trúc.
  • Quản trị là chức năng và lòng tin: tích hợp PII, kiểm toán và biện pháp bảo vệ vào hệ thống.
  • Thay thế mô hình trong một ngày: chuẩn hóa định tuyến, sơ đồ và đầu vào là sức mạnh cạnh tranh.

Kết luận

Trong Phần 1, chúng tôi đã phân tích động lực giữa các trại mã nguồn mở và khép kín. Chúng tôi đã chỉ ra tốc độ đổi mới, hệ sinh thái, cấu trúc chi phí, tính tuân thủ quy định, và năng lượng của cộng đồng nhà phát triển đang chảy về đâu. Trong Phần 2, chúng tôi đã chuyển những phân tích đó vào thực tế, tổ chức chúng tôi cần nhấn nút nào hôm nay qua hướng dẫn thực hiện và danh sách kiểm tra.

Bây giờ là câu hỏi, “Ai sẽ là người chiến thắng trong cuộc chiến AI năm 2025?” Câu trả lời không phải là một trại đơn lẻ. Người dùng là người chiến thắng, và thiết kế AI lai là chiến lược chiến thắng. AI lai cho phép kết hợp tính linh hoạt của mã nguồn mở và độ chính xác của mô hình khép kín theo từng tình huống, để luôn đạt được giá trị kỳ vọng cao nhất. Các lĩnh vực như hiện trường, tại chỗ, edge và bảo mật thông tin đang để AI mã nguồn mở mở rộng quyền lực, trong khi suy diễn phức tạp, đa phương thức thời gian thực và sáng tạo vẫn được AI khép kín cung cấp trần cao nhất. Người chiến thắng có thể thay đổi, nhưng cách chúng ta đứng về phía người chiến thắng thì vẫn không đổi. Cấu trúc có thể thay đổi mô hình, kỷ luật bảo vệ dữ liệu, thói quen giảm chi phí qua thiết kế, và hoạt động cho phép kết quả phát biểu bằng số liệu.

Bắt đầu ngay trong tuần này. 200 câu bộ vàng, 5 dòng chính sách định tuyến, 3 dòng sơ đồ đầu vào. Sự khởi đầu đơn giản này sẽ thay đổi hình dạng của bảng thành tích trong nửa cuối năm nay. Người chiến thắng thực sự vào năm 2025, chính là “người có thể thay đổi bất cứ lúc nào” như bạn.


이 블로그의 인기 게시물

AI biên giới vs AI đám mây: Hướng dẫn chiến lược hybrid 2025 hoàn chỉnh - Phần 2

Hệ sinh thái AI rộng lớn của Google hay cách tiếp cận an toàn của Anthropic? - Phần 2

[Cuộc đối đầu ảo] Đế chế La Mã vs Đế chế Mông Cổ: Liệu lá chắn của Địa Trung Hải có thể ngăn cản mũi tên của thảo nguyên? (dựa trên thời kỳ hoàng kim) - Phần 1