Vũ khí tấn công tự động - mối đe dọa lớn trong tương lai?

Quân sự thế giới - Ngày đăng : 14:25, 06/03/2023

Không ai có thể phủ nhận tiềm năng to lớn phục vụ lợi ích con người của AI, nhưng công nghệ này cũng đang đặt ra những vấn đề đáng lo ngại, đặc biệt là khi được áp dụng vào lĩnh vực quân sự, phát triển vũ khí tấn công tự động và bị kẻ xấu lợi dụng.

Tuần trước, 33 nước đã kêu gọi hình thành một hiệp ước toàn cầu về hạn chế “vũ khí sát thương tấn công tự động” (lethal autonomous weapons – tạm gọi ngắn gọn là “vũ khí tấn công tự động”). Tuy nhiên, các quan chức Mỹ thì cho rằng cho ra đời một hiệp ước như vậy là quá sớm và nên ưu tiên nghiên cứu các “hướng dẫn sử dụng” ở một giới hạn nào đó chứ không hoàn toàn cấm loại vũ khí này. Hôm nay, ngày 6-3, các Nhóm chuyên gia hàng đầu của các chính phủ về vũ khí tấn công tự động sẽ nhóm họp lần thứ 2 tại Geneva (Thụy Sĩ) để tiếp tục thảo luận về vấn đề đạo đức và pháp lý trong sử dụng vũ khí này.

Lục quân Mỹ huấn luyện trên robot vũ trang thử nghiệm thuộc Dự án Origin 2022. Ảnh: Lục quân Mỹ

Có thể thấy một lằn ranh rất mong manh trong vấn đề đạo đức và pháp lý khi sử dụng vũ khí tấn công tự động sử dụng công nghệ AI làm nền tảng (autonomous weapons là sự kết hợp của AI và vũ khí sát thương). AI có tiềm năng to lớn phục vụ lợi ích con người trong nhiều lĩnh vực, nhưng công nghệ này khi bị kẻ xấu sử dụng, đặc biệt là trong lĩnh vực vũ khí, quân sự sẽ là một vấn đề có thể để lại nhiều hậu quả khôn lường và một hành lang pháp lý cho việc sử dụng loại vũ khí này rất có thể là điều phải xem xét nghiêm túc và nghiên cứu một cách nghiêm túc trong tương lai.

Mối nguy tiềm tàng

Giáo sư khoa học máy tính Stuart Russell tại Đại học California, người từng dành hơn 35 năm nghiên cứu về AI, cho rằng mối nguy này không chỉ là trong tương lai mà hiện nay chúng ta đã có thể sản xuất vũ khí tấn công tự động bằng cách tích hợp và thu nhỏ những công nghệ sẵn có. Theo ông, khi máy móc có thể tự ra quyết định tấn công thì an ninh và tự do của loài người sẽ lâm nguy. Rất nhiều đồng nghiệp trong lĩnh vực AI đồng ý với ông về điều này. Ông cũng cho rằng chúng ta có cơ hội để ngăn chặn một tương lai ảm đạm như vậy, nhưng “cánh cửa để hành động đang khép lại rất nhanh”.

Để minh chứng cho điều này, Giáo sư Stuart Russell cùng Viện nghiên cứu Cuộc sống tương lai (FLI) đã tiến hành thí nghiệm trên một thiết bị có tên là slaughterbot (robot sát thủ). Thiết bị bay siêu nhỏ này có hình dạng như một chiếc flycam, có thể nằm gọn trong lòng bàn tay. Slaughterbot được trang bị camera, cảm biến, phần mềm xử lý hình ảnh, nhận diện khuôn mặt, một khối thuốc nổ nặng 3gr, và đặc biệt là một bộ vi xử lý tốc độ cao, cho phép slaughterbot phân tích dữ liệu và phản ứng nhanh hơn 100 lần tốc độ bộ não con người. Theo thông số lập trình, slaughterbot sẽ tìm cách tiếp cận mục tiêu và khi đã tìm được, nó lao thẳng vào mục tiêu với vận tốc lớn, kích hoạt khối thuốc nổ 3gr, khoan sâu vào bên trong hộp sọ. Vết thương này đủ để giết chết nạn nhân trong nháy mắt.

Điều gì sẽ xảy ra nếu thiết bị như thế này rơi vào tay kẻ xấu và được sử dụng với quy mô, số lượng lớn? Nguồn: Slaughterbots trong thí nghiệm của FLI, Việt hóa: HỮU DƯƠNG

Câu hỏi đặt ra là: “Điều gì sẽ xảy ra nếu thiết bị như thế này rơi vào tay kẻ xấu và được sử dụng với quy mô, số lượng lớn?” và “Bao lâu nữa thì điều này thành hiện thực?” Những con robot nhỏ bé này có thể truy cập thông tin về đối tượng từ dữ liệu đám mây, mạng xã hội để truy tìm mục tiêu. 25 triệu USD là đủ mua được số lượng slaughterbot để tiêu diệt một nửa dân số một thành phố lớn của Mỹ. Viễn cảnh FLI đưa ra là vô cùng ảm đạm. Trong khi đó, rất nhiều nước vẫn đang ráo riết đổ tiền vào nghiên cứu, chế tạo nhiều loại robot quân sự khác nhau trên nền tảng tương tự. Cũng như vũ khí hóa học, khả năng chúng vượt ra ngoài tầm kiểm soát của các chính phủ và rơi vào tay kẻ xấu là hoàn toàn có thể xảy ra.

Hồi chuông cảnh báo

Nhóm chuyên gia của Công ước về một số loại vũ khí thông thường (CCW) đã nhiều lần tổ chức các phiên thảo luận về các vấn đề liên quan vũ khí tấn công tự động kể từ năm 2014 và họ sẽ tiếp tục thảo luận vấn đề này vào ngày hôm nay 6-3. Rất nhiều nhà khoa học từ các nước đã lên tiếng kêu gọi xem xét kỹ lưỡng vấn đề vũ khí tấn công tự động. Nhiều chuyên gia thậm chí đề xuất xây dựng và áp dụng một bộ luật về vũ khí tấn công tự động như đã từng áp dụng đối với vũ khí hóa học trước đây.

Những lo lắng về vũ khí tấn công tự động không phải là không có cơ sở. Nghi ngại về các loại vũ khí này đã nhen nhóm từ cách đây rất lâu, nhưng chỉ gần đây khi những mối nguy đã được cảnh báo của nó đang dần trở nên hiện hữu thì người ta mới để tâm hơn đến nó. Tháng 7-2015, hơn 1.000 chuyên gia nghiên cứu lĩnh vực AI, trong đó có Stephen Hawking, Elon Musk, Noam Chomsky… đã cùng ký vào một văn bản cảnh báo về nguy cơ một cuộc chạy đua vũ trang trong lĩnh vực AI quân sự và kêu gọi cấm toàn diện vũ khí tấn công tự động. Tháng 8-2018, có hơn 2.400 chuyên gia AI cùng ký thỉnh nguyện thư kêu gọi các nước không nghiên cứu phát triển vũ khí tấn công tự động.

Thế nhưng hiện tại không chỉ riêng Mỹ, Nga, Trung Quốc, mà còn rất nhiều nước khác vẫn tiếp tục đầu tư lớn vào nghiên cứu các loại vũ khí ứng dụng AI. Ví dụ, hãng Dodaam Systems của Hàn Quốc vừa sản xuất thành công một loại “robot chiến đấu” tự động hoàn chỉnh. Robot này có một tháp pháo cố định, có khả năng phát hiện và tiêu diệt mục tiêu trong khoảng cách 3km. Hãng BAE Systems (Anh) cũng đã phát triển dòng máy bay quân sự không người lái Taranis, có thể hoạt động hoàn toàn tự động và độc lập và mới đây nhất, thông cáo báo chí của nhà thầu quốc phòng Lockheed Martin cho biết hãng đã thử nghiệm thành công công nghệ AI điều khiển máy bay chiến đấu hiện có của Không quân Mỹ hoạt động hoàn toàn không có sự can thiệp của con người trong 17 giờ liên tục...

Ngay trong năm 2018 đã có hơn 2.400 chuyên gia nghiên cứu AI ký vào thỉnh nguyện thư kêu gọi các nước không phát triển vũ khí tấn công tự động. Ảnh: Technology Review

Nhiều học giả cho rằng những robot sát thủ như vậy trực tiếp đe dọa sự an toàn của tất cả mọi người, đặc biệt ở những nơi vốn dĩ đã không an toàn. Việc áp dụng AI vào lĩnh vực quân sự trên khắp thế giới đã làm dấy lên mối lo ngại về một tình huống giống trong phim “Kẻ hủy diệt” và những câu hỏi về tính chính xác cũng như khả năng phân biệt bạn-thù của vũ khí tấn công tự động khi đi vào vận hành.

Trở lại thí nghiệm của Giáo sư Stuart Russell và FLI, Giảng viên cao cấp, Giám đốc Chương trình Công nghệ và An ninh quốc gia thuộc Trung tâm An ninh Hoa Kỳ mới (CNAS) Paul Scharre đã phản bác quan điểm của Giáo sư Stuart Russell bằng các luận điểm: Thứ nhất, các chính phủ sẽ không sản xuất hàng loạt vũ khí tấn công tự động. Thứ hai, các biện pháp đối phó sẽ được phát triển nếu vũ khí tấn công tự động trở thành hiểm họa thực sự. Thứ ba, slaughterbot sẽ được ngăn chặn để không rơi vào tay khủng bố. Thứ tư, những kẻ khủng bố không có khả năng phát động tấn công cùng một lúc ở nhiều nơi với quy mô lớn.

Tuy vậy, cả bốn luận điểm nói trên của Paul Scharre đều có điểm yếu. Thứ nhất, Paul Scharre quên rằng trước khi Công ước về vũ khí hóa học (CWC) ra đời vào năm 1997, rất nhiều nước đã sản xuất vũ khí hóa học quy mô lớn và chỉ sau khi ký kết CWC, họ mới chịu dừng sản xuất hàng loạt và hủy kho vũ khí hóa học của mình. Điều tương tự có thể xảy ra với vũ khí tấn công tự động. Thứ hai, vũ khí tấn công tự động có thể tấn công mục tiêu bất cứ lúc nào, ở bất cứ nơi đâu. Như vậy, muốn an toàn, biện pháp đối phó phải được áp dụng liên tục, mọi lúc, mọi nơi và chỉ cần một lỗ hổng nhỏ trong hệ thống phòng vệ là đủ để xảy ra thảm họa. Luận điểm thứ ba của Paul Scharre lại hết sức ngây thơ. Ai cũng biết rằng không ai chính thức thừa nhận mình cung cấp vũ khí cho các tổ chức khủng bố, nhưng hiện có hàng triệu khẩu súng tiểu liên tấn công (súng bộ binh) đang nằm trong tay chúng, thậm chí cả khí tài hạng nặng và vũ khí hóa học. Ngân sách ước tính của Tổ chức Nhà nước Hồi giáo tự xưng IS trong giai đoạn hoạt động mạnh nhất là 2 tỷ USD, đủ để mua hàng triệu vũ khí tấn công tự động nếu có bán ngoài chợ đen. Luận điểm thứ tư không đủ sức thuyết phục, bởi chỉ cần vài người là đủ để phát động một cuộc tấn công bằng vũ khí tấn công tự động quy mô lớn.

Một bộ luật quốc tế cho vũ khí tấn công tự động?

Việc 50 học giả hàng đầu về AI từ gần 30 nước ký một bức thư hồi trung tuần tháng 4-2018 kêu gọi tẩy chay Viện Công nghệ và Khoa học trình độ cao KAIST cùng đối tác của viện này là Công ty vũ khí Hanwha Systems vì lo ngại “gia tăng chạy đua phát triển” vũ khí tấn công tự động là hành động bột phát. Nhưng hành động đó đã giúp tăng cường nhận thức về hiểm họa tiềm tàng từ vũ khí tấn công tự động và cho thấy đề xuất thiết lập một bộ luật quốc tế điều chỉnh việc sản xuất và sử dụng vũ khí tấn công tự động cần phải được xem xét, đặc biệt là trong bối cảnh các quốc gia không ngừng thúc đẩy phát triển hệ thống vũ khí tấn công tự động của mình. Hồi tuần trước, 33 nước tiếp tục kêu gọi phải có một hiệp ước hạn chế việc sử dụng loại vũ khí tiềm năng nguy hiểm này.

Nhà thầu quốc phòng Lockheed Martin đã thử nghiệm thành công sử dụng AI điều khiển máy bay chiến đấu hiện có của Không quân Mỹ hoạt động hoàn toàn không có sự can thiệp của con người trong 17 giờ liên tục. Ảnh: Không quân Mỹ

Về khía cạnh luật pháp, Giáo sư luật Ellen O’Connor - Trường Luật thuộc Đại học Notre Dame (Mỹ) - cho rằng: “Chúng ta có Hiến chương Liên hợp quốc và các nguyên tắc khác điều chỉnh việc sử dụng lực lượng quân sự. Chúng ta có luật nhân đạo quốc tế để điều chỉnh tác chiến trên chiến trường và chúng ta có luật nhân quyền. Tất cả đều rất hợp lý”. Thế nhưng, trong khi mỗi hệ thống vũ khí mới khi được đưa ra chiến trường đều phải tuân thủ các nguyên tắc luật pháp, thực tế cho thấy có rất nhiều thách thức trong việc ngăn chặn và quy kết trách nhiệm giải trình của các bên liên quan.

Theo các chuyên gia luật, cần phải đưa ra một khái niệm cụ thể hơn nữa về trách nhiệm giải trình để thực sự giải quyết được các vấn đề liên quan vũ khí tấn công tự động. Chúng ta cần phải thông qua các điều khoản luật pháp về quy chuẩn thử nghiệm và đánh giá vũ khí tấn công tự động để đảm bảo rằng khi các hệ thống này được triển khai trên chiến trường, chúng sẽ hoạt động và được kiểm soát theo cách chúng ta mong muốn. Nếu không đạt được một mặt bằng pháp lý như vậy, chúng ta không thể hoàn toàn yên tâm mà nói rằng một hệ thống vũ khí tấn công tự động sẽ hoạt động như ý muốn của con người và sẽ không thể được triển khai trên chiến trường.

Có thể nói vũ khí tấn công tự động đang là mối đe dọa lớn trong tương lai không chỉ đối với riêng quốc gia nào. Diễn biến trong cuộc xung đột giữa Nga và Ukraine gần đây là một minh chứng cho điều đó khi các bên sử dụng drone (thiết bị bay không người lái) trong tác chiến và đã đạt được nhiều kết quả nhất định. Tuy nhiên, drone mới chỉ dừng lại ở mức còn có sự điều khiển của con người. Trong tương lai, khi vũ khí tấn công tự động được phát triển lên mức độ cao, có thể tự ra quyết định tấn công (như trường hợp Lockheed Martin thử nghiệm với máy bay X-62A VISTA - một biến thể của chiến đấu cơ F-16D có điều chỉnh) và việc tiếp cận loại vũ khí này trở nên dễ dàng hơn thì bất cứ ai cũng có thể trở thành đối tượng tấn công khi nó rơi vào tay kẻ xấu. Hiểm họa vũ khí tấn công tự động đang dần hiện hữu và đòi hỏi có động thái mạnh mẽ hơn từ cộng đồng quốc tế nhằm ngăn chặn một tương lai mà ở đó máy móc có thể tự quyết định việc tấn công con người.

HỮU DƯƠNG (tổng hợp từ IEEE Spectrum, Actual Today, Military.com, The Guardian, Breaking Defense…)