Trung Quốc sử dụng mô hình ngôn ngữ lớn llama để phát triển công cụ AI quân sự
Cập nhật vào: Chủ nhật - 15/12/2024 12:06 Cỡ chữ
Trong bối cảnh cuộc đua công nghệ trí tuệ nhân tạo (AI) ngày càng gay gắt, Trung Quốc đã tiến hành nghiên cứu và phát triển các ứng dụng AI trong lĩnh vực quân sự. Đáng chú ý, các viện nghiên cứu hàng đầu có liên hệ với quân đội Trung Quốc đã sử dụng mô hình ngôn ngữ lớn nguồn mở Llama của Meta Platforms để phát triển công cụ AI mang tên ChatBIT, nhằm phục vụ cho các ứng dụng quân sự tiềm năng.
Vào tháng 6 năm 2023, một nhóm gồm sáu nhà nghiên cứu từ ba viện nghiên cứu Trung Quốc, trong đó có hai viện trực thuộc Viện Hàn lâm Khoa học Quân sự (AMS), đã công bố chi tiết về việc sử dụng phiên bản đầu tiên của mô hình Llama do Meta Platforms phát hành để phát triển ChatBIT. AMS được biết đến là cơ quan nghiên cứu hàng đầu của Quân đội Giải phóng Nhân dân Trung Quốc.
Nhóm nghiên cứu bao gồm Geng Guotong và Li Weiwei từ Trung tâm Nghiên cứu Thông tin Khoa học Quân sự và Viện Đổi mới Quốc phòng Quốc gia thuộc AMS, cùng với các chuyên gia từ Viện Công nghệ Bắc Kinh và Đại học Dân tộc Trung Ương. Họ đã sử dụng mô hình ngôn ngữ lớn Llama 2 13B, được Meta Platforms phát hành vào tháng 2 năm 2023, và tích hợp các tham số riêng để xây dựng ChatBIT—một công cụ AI tập trung vào lĩnh vực quân sự, nhằm thu thập và xử lý thông tin tình báo, cung cấp dữ liệu chính xác và đáng tin cậy cho việc ra quyết định tác chiến.
ChatBIT đã được tinh chỉnh và tối ưu hóa cho các nhiệm vụ đối thoại và trả lời câu hỏi trong lĩnh vực quân sự. Theo nhóm nghiên cứu, công cụ này đạt hiệu suất tốt hơn một số mô hình AI khác, với khả năng tương đương khoảng 90% so với GPT-4 của OpenAI. Tuy nhiên, chi tiết về phương pháp đánh giá hiệu suất và việc triển khai thực tế của ChatBIT chưa được công bố rõ ràng.
Việc sử dụng mô hình ngôn ngữ lớn nguồn mở như Llama cho mục đích quân sự đánh dấu một bước tiến quan trọng trong việc áp dụng công nghệ AI vào lĩnh vực quốc phòng. Theo Sunny Cheung, chuyên gia tại tổ chức phi lợi nhuận Jamestown Foundation chuyên nghiên cứu về công nghệ kép và AI của Trung Quốc, đây là lần đầu tiên có bằng chứng cho thấy các chuyên gia quân sự Trung Quốc đã nghiên cứu một cách có hệ thống và cố gắng tận dụng sức mạnh của mô hình ngôn ngữ lớn nguồn mở cho mục đích quân sự.
Công nghệ kép, tức là công nghệ có thể được sử dụng cho cả mục đích dân sự và quân sự, thường là chủ đề của các quy định và kiểm soát xuất khẩu nghiêm ngặt nhằm ngăn chặn việc sử dụng sai mục đích và bảo vệ an ninh quốc gia. Meta Platforms, công ty mẹ của Facebook, đã công khai phát hành nhiều mô hình AI của mình, bao gồm Llama, và áp dụng các hạn chế về việc sử dụng, như yêu cầu các dịch vụ có trên 700 triệu người dùng phải xin giấy phép từ công ty. Các điều khoản của Meta cấm sử dụng những mô hình AI này cho mục đích quân sự, chiến tranh, công nghiệp hạt nhân hoặc ứng dụng gián điệp, cũng như để phát triển vũ khí và nội dung nhằm mục đích kích động và thúc đẩy bạo lực.
Tuy nhiên, do các mô hình của Meta được phát hành công khai, công ty gặp khó khăn trong việc thực thi các điều khoản này. Molly Montgomery, Giám đốc chính sách công của Meta Platforms, cho biết: "Bất kỳ việc sử dụng mô hình nào của chúng tôi bởi Quân đội Trung Quốc đều là trái phép và trái với chính sách sử dụng được chấp nhận của công ty."
Trong tương lai, thông qua việc tinh chỉnh công nghệ, ChatBIT không chỉ được áp dụng vào phân tích tình báo mà còn có thể hỗ trợ lập kế hoạch chiến lược, huấn luyện mô phỏng và ra quyết định chỉ huy. Tuy nhiên, với việc ChatBIT chỉ tích hợp 100.000 bản ghi đối thoại quân sự—một con số tương đối nhỏ so với các mô hình ngôn ngữ lớn khác—khả năng và sức mạnh tính toán của công cụ này vẫn còn là một dấu hỏi. Joelle Pineau, Phó chủ tịch Nghiên cứu AI tại Meta và giáo sư khoa học máy tính tại Đại học McGill, nhận xét rằng con số này chỉ là "giọt nước trong đại dương" so với hầu hết các mô hình được đào tạo bằng hàng nghìn tỷ token.
Nghiên cứu này diễn ra trong bối cảnh có cuộc tranh luận gay gắt trong giới an ninh quốc gia và công nghệ Mỹ về việc liệu các công ty như Meta Platforms có nên công khai các mô hình AI của họ hay không. Vào tháng 10 năm 2023, Tổng thống Mỹ Joe Biden đã ký một lệnh hành pháp nhằm quản lý các hoạt động phát triển AI, lưu ý rằng dù đổi mới có thể mang lại nhiều lợi ích đáng kể nhưng cũng tồn tại "rủi ro an ninh lớn, chẳng hạn việc loại bỏ các biện pháp bảo vệ trong mô hình".
Một số nhà quan sát cho rằng những bước tiến của Trung Quốc trong việc phát triển AI nội địa, bao gồm việc thành lập hàng loạt phòng thí nghiệm nghiên cứu, khiến việc ngăn nước này thu hẹp khoảng cách công nghệ với Mỹ trở nên khó khăn hơn. Trong một bài viết học thuật riêng, hai nhà nghiên cứu thuộc Tập đoàn Công nghiệp Hàng không Trung Quốc (AVIC) đã mô tả việc sử dụng Llama 2 để "huấn luyện các chiến lược can thiệp tác chiến điện tử trên không". Việc Trung Quốc sử dụng AI do phương Tây phát triển cũng mở rộng sang lĩnh vực an ninh trong nước, với các ứng dụng như giám sát tình báo và nâng cao khả năng ra quyết định của cảnh sát.
Việc các viện nghiên cứu hàng đầu Trung Quốc liên kết với quân đội sử dụng mô hình ngôn ngữ lớn nguồn mở Llama của Meta Platforms để phát triển công cụ AI như ChatBIT cho thấy sự tiến bộ và tham vọng trong lĩnh vực trí tuệ nhân tạo quân sự của Trung Quốc. Mặc dù Meta đã đặt ra các điều khoản sử dụng nghiêm ngặt nhằm ngăn chặn việc ứng dụng công nghệ của họ vào mục đích quân sự, nhưng việc công khai phát hành mô hình Llama đã tạo điều kiện cho các tổ chức khác, bao gồm cả quân đội Trung Quốc, tiếp cận và tùy chỉnh cho mục đích riêng.
Sự kiện này đặt ra nhiều câu hỏi về việc kiểm soát và quản lý công nghệ AI nguồn mở, đặc biệt khi nó có thể được sử dụng cho các mục đích nhạy cảm như quân sự. Nó cũng nhấn mạnh tầm quan trọng của việc thiết lập các quy định và cơ chế giám sát hiệu quả để đảm bảo công nghệ được sử dụng một cách có trách nhiệm và không gây nguy hại đến an ninh quốc gia cũng như hòa bình thế giới.
Trong bối cảnh cạnh tranh công nghệ toàn cầu ngày càng gay gắt, các quốc gia cần cân nhắc kỹ lưỡng giữa việc thúc đẩy đổi mới và bảo vệ an ninh quốc gia. Việc hợp tác quốc tế trong việc thiết lập các tiêu chuẩn và quy định chung cho việc phát triển và ứng dụng AI có thể là một giải pháp khả thi để đảm bảo công nghệ này được sử dụng vì lợi ích chung của nhân loại.
P.A.T (NASATI), theo Reuters, 11/2024