Phi công AI: Vua bầu trời hay sát thủ máu

HOA KIM 02/03/2022 18:05 GMT+7

TTCT - Không sợ chết, không chịu giới hạn thể xác, đánh giá tình huống trong tích tắc và quyết định chính xác đến lạnh lùng trong các trận không chiến. Chỉ có máy móc mới có thể làm thế, và các cường quốc đang đổ tiền nghiên cứu để các thuật toán trí tuệ nhân tạo (AI) vượt mặt phi công bằng xương bằng thịt khi điều khiển những chiến đấu cơ.

 
 Đồ họa giới thiệu cuộc đấu AI - người của DARPA.

Một phi công điều khiển tiêm kích F-16 liên tục chao lượn và lộn vòng để cố thoát khỏi sự truy đuổi của chiếc máy bay bám đuôi. Nhưng mọi nỗ lực là vô vọng. Nhiều năm đào tạo trên thao trường cùng kinh nghiệm thực chiến của anh bỗng trở nên thừa thãi trước đối thủ tinh quái; phi công AI chiếm ưu thế áp đảo trước đối thủ.

Đây không phải là tương lai xa xôi mà có thể hiện thực ngay trong năm 2022 này, theo Wired. Tạp chí này cho rằng thuật toán giúp máy móc có thể đối đầu và chiến thắng phi công là con người như vừa mô tả “sẽ vĩnh viễn thay đổi cục diện chiến tranh”.

Tiến bộ từng ngày

Tự động hóa việc điều khiển máy bay là bài toán đã được đặt ra từ những ngày chập chững của ngành hàng không. Hệ thống lái tự động (autopilot) đầu tiên được ghi nhận trên thế giới là một thiết bị đơn giản bao gồm con quay hồi chuyển được kết nối với cánh và đuôi của máy bay, ra mắt vào năm 1914 - chỉ khoảng một thập niên sau khi anh em nhà Wright bay thử thành công máy bay gắn động cơ đầu tiên trên thế giới.

Ngày nay công nghệ quân sự hiện đại đã cho ra đời những khí tài tự động tối tân như thiết bị dò mìn dưới nước hoặc bom dẫn đường bằng laze, nhưng trong chiến tranh ít có khía cạnh nào phức tạp như không chiến. “Không chiến có lẽ là hình thức bay biến hóa khôn lường nhất trong ngành hàng không, chấm hết” - tạp chí The New Yorker dẫn lời Paul Schifferle, phó chủ tịch Calspan, một nhà thầu đang hợp tác cùng cơ quan nghiên cứu DARPA thuộc Bộ Quốc phòng Mỹ để phát triển phi công AI cho quân đội nước này.

Năm 2008 là cột mốc đầu tiên đánh dấu AI đủ khả năng điều khiển máy bay trình diễn các kỹ thuật nhào lộn cần thiết trong không chiến. Nhóm nghiên cứu của Andrew Ng tại Đại học Stanford đã phát triển một máy bay trực thăng do AI điều khiển có thể học cách thực hiện các kỹ thuật đơn giản bằng cách quan sát các phi công thật. Một khi đã nắm được nguyên lý cơ bản, AI mất không lâu để hoàn thiện kỹ năng và vượt mặt người thật.

Tháng 8-2020, DARPA thông báo một thuật toán máy tính đã đánh bại phi công thật trong môi trường giả lập. AI được chọn là sản phẩm của Công ty Heron Systems và là nhà vô địch trong một cuộc thi tìm kiếm AI trước đó do DARPA tổ chức, còn đối thủ của nó là một phi công F-16 dày dặn kinh nghiệm trận mạc. Cả 2 bước vào một trận dogfight - hai máy bay rượt đuổi nhau và hỗn chiến trực diện. Kết quả: phi công không quân thua 5 ván không gỡ.

Năm 2021, AI do Trung Quốc phát triển cũng đã đánh bại một phi công của không quân nước này trong cuộc đấu tương tự. “Ban đầu, không khó để giành chiến thắng (trước AI)” - Fang Guoyu, trưởng đội bay của không quân Trung Quốc nói với Wired. Nhưng AI này tiếp thu nhanh chóng từ mỗi thất bại và cuối cùng đã hạ gục phi công lão luyện. Lầu Năm Góc cho biết họ có ý định tổ chức thi đấu sử dụng máy bay thật giữa phi công người thật và AI vào năm 2023, nhưng với việc Trung Quốc cũng đang đẩy nhanh nghiên cứu phi công AI của riêng họ, nhiều khả năng Mỹ sẽ rút ngắn thời gian để có thể tổ chức cuộc thi đấu trận giả này trong năm nay, theo Wired.

 
 Thông báo cho thấy hệ thống Hero (màu xanh) đã có "chiến thắng hoàn mỹ" trước phi công F-16 là con người. Ảnh: DARPA

Phi công không sợ chết

AI được quân sự hóa sẽ mang đến một cuộc cách mạng thật sự trong tác chiến. Khi không còn phi công trong buồng lái, máy bay chiến đấu có thể được thiết kế lại cho phép chúng cơ động theo những cách vượt ngoài sức chịu đựng của cơ thể con người.

Trí khôn nhân tạo còn có lợi thế đáng kể trong các giao tranh tốc độ cao và căng thẳng: chúng không biết sợ hãi, cực kỳ hiếu chiến, phản ứng nhanh hơn khả năng phản xạ của con người, và có thể theo dõi cùng lúc nhiều máy bay địch ở mọi hướng, xác định mối đe dọa lớn nhất và mục tiêu tốt nhất trong những tình huống thực chiến biến hóa liên tục.

AI cũng giúp cho việc mở rộng quy mô lực lượng không quân trở nên dễ dàng hơn nhiều so với hiện nay, khi để đào tạo một phi công với đầy đủ phẩm chất và năng lực chiến đấu là một quá trình dài hơi và tiêu tốn nhiều tiền của. Mẫu máy bay không người lái Loyal Wingman mà Hãng Boeing sản xuất theo hợp đồng với Lực lượng không quân hoàng gia Úc chỉ có giá khoảng 3 triệu USD mỗi chiếc, quá rẻ so với con số từ 80-100 triệu USD cho một chiến đấu cơ tàng hình F-35, theo NBC News. Với giá đó, tiêm kích do phi công AI điều khiển có thể tham gia các chiến dịch nguy hiểm và chứa đựng nhiều rủi ro mà nếu là người thật thì sẽ không khác gì một nhiệm vụ cảm tử.

“Những chiếc máy bay tự hành nhỏ có thể được kết hợp theo những cách bất ngờ để áp đảo kẻ thù bằng độ phức tạp của đội hình. Nếu một chiếc trong số chúng bị bắn hạ thì đó cũng không phải là điều gì to tát” - Stacie Pettyjohn, giám đốc chương trình quốc phòng của Viện Nghiên cứu CNAS nói với The New Yorker.

 
 Ảnh: DARPA

Đồng đội AI có đáng tin?

Theo Pettyjohn, chương trình phi công AI nằm trong kế hoạch rộng lớn hơn của không quân Mỹ nhằm “phân rã lực lượng” thành các đơn vị nhỏ ít tốn kém so với hiện tại. Nói đơn giản là đưa máy móc vào thay thế một phần và phối hợp tác chiến bên cạnh con người, còn gọi hoa mỹ như DARPA thì đây là “nghệ thuật chiến tranh mảnh ghép” (mosaic warfare).

Trong chiến thuật kiểu mới này, một phi công thật sẽ được tháp tùng bởi một nhóm máy bay không người lái hoạt động dưới sự chỉ đạo tối thiểu từ phi công chính. Chúng trinh sát phía trước để vạch ra mục tiêu, sử dụng khả năng tác chiến điện tử để gây nhiễu tín hiệu của đối phương và phóng tên lửa được trang bị riêng để thực hiện các cuộc không kích và tiêu diệt, giúp tăng hiệu quả chiến đấu gấp nhiều lần so với một phi công hoạt động độc lập.

Bộ trưởng không quân Mỹ Frank Kendall tự tin đây hoàn toàn không phải là giấc mơ viển vông. “Có đủ công nghệ tồn tại từ các chương trình mà chúng tôi đã tiến hành để thuyết phục tôi rằng đó không phải là một ý tưởng điên rồ” - trang Defense News dẫn lời ông Kendall phát biểu tại một sự kiện quốc phòng hôm 19-1.

Để đạt đến sự phối hợp nhịp nhàng ăn ý, lòng tin của người phi công đối với các “đồng đội” máy tính là tối quan trọng. Đối với những phi công đã quen làm chủ mọi khía cạnh của trận không chiến, việc thuyết phục họ chấp nhận chuyển giao một phần quyền kiểm soát cho phần mềm máy tính cũng khó khăn không kém phát triển AI đủ khôn để lãnh nhận trọng trách đó. “Trong quân đội có câu nói thế này: niềm tin đạt được bằng muỗng cà phê và mất đi bằng xô” - The New Yorker dẫn lời Peter Hancock, giáo sư tâm lý học tại Đại học Central Florida.

Điều này không chỉ đúng trong chiến tranh. Trong các khảo sát gần đây của Hiệp hội Ôtô Mỹ, khoảng 80% số người được hỏi nói rằng họ không cảm thấy thoải mái với ý tưởng về xe tự hành. Sự tin tưởng càng đóng vai trò quan trọng trong không chiến, vì khi bay với tốc độ lên đến hơn 800km/h thì các thuật toán không thể lúc nào cũng chờ sự đồng ý từ phi công trước khi thực hiện bất kỳ hành động nào. Hancock ví von việc này với túi khí xe hơi được triển khai trong vòng vài mili giây khi có tai nạn. “Nếu phải chờ con người cho phép, toàn bộ mục đích của túi khí là vô nghĩa” - ông nhấn mạnh.

 
 Mô hình "chiến tranh mảnh ghép". Ảnh: DARPA

Cỗ máy giết người?

Năm 2017, một nhóm đấu tranh để “giữ cho ai có lợi (cho con người)” đã phát hành đoạn phim ngắn “Slaughterbots” (Robot sát thủ) trên nền tảng YouTube, vẽ nên viễn cảnh một thế giới trong đó những chiếc flycam thông minh được vũ khí hóa để nhắm vào những người bất đồng chính kiến, sinh viên đại học và các thành viên quốc hội. “Vũ khí hạt nhân đã lỗi thời. Tiêu diệt toàn bộ kẻ thù của bạn, hầu như không có rủi ro đi kèm” - một nhân vật có ngoại hình giống CEO Apple quá cố Steve Jobs phát biểu trong buổi ra mắt Slaughterbot.

Ở cuối video dài 5 phút rưỡi với gần 6 triệu lượt xem, nhà khoa học máy tính Stuart Russell của Đại học California, Berkeley nhìn thẳng vào camera và cảnh báo: “Việc cho phép máy móc lựa chọn giết con người sẽ tàn phá an ninh và tự do của chúng ta”. Russell nằm trong nhóm các học giả và CEO công nghệ nổi tiếng - trong đó có Elon Musk, Stephen Hawking và Noam Chomsky - đã ký vào một lá thư kêu gọi cấm “vũ khí tự động tấn công ngoài tầm kiểm soát của con người”.

Sự lo lắng của họ không phải vô căn cứ. Dù quân đội Mỹ liên tục cam đoan việc ứng dụng công nghệ AI hiện đại có thể giúp nhận dạng mục tiêu tốt hơn và giảm thiểu rủi ro tấn công sai đối tượng, kết quả thực tế trên chiến trường đang cho thấy điều ngược lại. Năm 2003 trong chiến tranh Iraq, một loại vũ khí tự chủ sơ khai là tên lửa Patriot đã vô tình bắn hạ một máy bay chiến đấu của Anh và một máy bay của hải quân Mỹ, khiến cả 2 phi công thiệt mạng.

Sau một cuộc điều tra gần đây dựa trên 1.300 báo cáo đã được phân loại về thương vong dân sự ở Trung Đông, báo The New York Times mô tả các cuộc không kích của Mỹ là “một sự tương phản rõ nét với hình ảnh mà Chính phủ Mỹ dựng lên về một cuộc chiến được thực hiện bằng máy bay không người lái thông minh và ném bom chính xác”.

Năm 2018, các nhà nghiên cứu tại MIT và Đại học Stanford phát hiện 3 hệ thống nhận dạng khuôn mặt bằng AI phổ biến thường xuyên xác định sai giới tính của phụ nữ có làn da sẫm màu. Hai năm sau, một báo cáo của cơ quan nghiên cứu thuộc Quốc hội Mỹ ghi nhận “phát hiện này có thể có ý nghĩa quan trọng đối với các ứng dụng của AI trong bối cảnh quân sự, đặc biệt nếu những thành kiến đó không được phát hiện và được tích hợp vào các hệ thống có thể gây chết người”.

Theo cựu bộ trưởng không quân Mỹ Deborah Lee James, các hệ thống AI của quân đội nước này sẽ được thiết kế để học và hành động một cách độc lập trong các tình huống mang tính phòng thủ, chẳng hạn như biết trốn tránh nếu một mối đe dọa xuất hiện. Nhưng bà không tin rằng quân đội sẽ trao quyền hoàn toàn cho một hệ thống tự chủ tự đưa ra những quyết định có khả năng gây thương vong cho con người.

Cựu phi công F-16 Heather Penney nhấn mạnh tầm quan trọng của việc có sự giám sát của con người đối với những máy bay được điều khiển bởi AI, ngay cả khi chúng có khả năng hoạt động một cách tự chủ. “Nhiều người nghĩ rằng chúng ta đang bước vào thế giới của những con robot giết người và thực sự loại bỏ các yếu tố luân lý, đạo đức và giá trị của con người ra khỏi bức tranh và chỉ để lại một thuật toán toán học. Điều đó không đúng” - Penney khẳng định với Defense News.

Đừng đặt súng vào tay AI

Stop Killer Robots (Ngăn chặn robot sát thủ), một liên minh gồm hơn 180 tổ chức phi chính phủ, đã thúc giục các quốc gia thông qua một hiệp ước pháp lý kiểm soát việc sử dụng vũ khí tự chủ có khả năng gây chết người. Mỹ không nằm trong số gần 70 quốc gia đã ký kết hiệp ước này cho đến nay. “Đó không chỉ là việc cấm một loại vũ khí cụ thể, giống như chúng ta cấm mìn hoặc vũ khí hóa học. Đây là một nỗ lực để ngăn chặn sự phát triển của một công nghệ có thể thay đổi cách các cuộc chiến tranh diễn ra theo một cách thật sự đáng sợ” - Bonnie Docherty, một giảng viên về luật nhân quyền tại Trường Luật Harvard nói với The New Yorker.

Bình luận Xem thêm
Bình luận (0)
Xem thêm bình luận