Sự phát triển của công nghệ trí tuệ nhân tạo (AI) trong nghiên cứu, chế tạo vũ khí đặt ra những câu hỏi về vấn đề đạo đức trong chiến tranh.
Vũ khí tự động có sức mạnh hủy diệt đang gây nhiều tranh cãi. Ảnh: Getty |
Bài bình luận đăng trên National Interest của tác giả Ryan Khurana - giám đốc điều hành của Viện Phát triển Thịnh vượng cho rằng nhiều người lo lắng về những nguy cơ tiềm ẩn của vũ khí tự động nhưng trên thực tế, loại vũ khí này vẫn có phần “thân thiện” hơn con người.
Vào tháng 7/2018, Viện tương lai của cuộc sống (FLI), một tổ chức chuyên về giảm thiểu rủi ro tồn tại từ AI đã công bố cam kết cấm phát triển các hệ thống vũ khí tự động gây chết người (LAWS). FLI là một trong những tổ chức được kính trọng nhất trong lĩnh vực rủi ro AI.
Kết quả là, cam kết “không tham gia hoặc hỗ trợ sự phát triển, sản xuất, buôn bán hoặc sử dụng vũ khí tự động gây chết người” đã tạo ra một tác động quốc tế đáng kể. Một số nhà nghiên cứu AI hàng đầu thế giới, bao gồm Yoshua Bengio và Jürgen Schmidhuber, các công ty bao gồm Google DeepMind và Element AI cùng các viện nghiên cứu khác đã đưa cam kết tương tự.
Một cách độc lập, 26 quốc gia trên toàn thế giới bao gồm Trung Quốc, Cuba, Venezuela và Zimbabwe đã kêu gọi cấm sử dụng LAWS. Trong khi tồn tại những quan ngại về đạo đức về vũ khí tự động thì những dự án phát triển chúng cũng không nên bị bỏ rơi mà thay vào đó, có thể đưa chúng vào khuôn khổ để chế tạo theo hướng có lợi.
Vũ khí tự động là xu hướng phát triển
LAWS là những công nghệ quân sự thông minh nhân tạo có khả năng thực hiện một quyết định tiêu diệt đối thủ (con người). Các hệ thống vũ khí này vẫn chưa tồn tại trong thực tế, mặc dù trí AI và công nghệ robot tiên tiến đã được gia tăng ứng dụng trên chiến trường những năm gần đây.
Sự thúc đẩy mạnh mẽ nhất trong việc sử dụng công nghệ không người lái trong chiến tranh là do quân đội Nga, vốn đang sử dụng các máy bay không người lái như Uran-6 ở Syria để hạn chế thương vong cho phi công kể từ năm 2016.
Đầu năm 2018, người Nga xác nhận đã triển khai robot không người lái hoàn toàn, chiếc Uran-9 vào khu vực xung đột. Uran-9 được trang bị tên lửa chống tăng, một khẩu pháo tự động và một tháp pháo súng máy.
Trong khi Uran-9 không người lái được điều khiển từ xa và không có khả năng tự gây chết người, nhà sản xuất vũ khí của Nga Kalashnikov tuyên bố ý định của họ vẫn là sẽ phóng thích "chiến đấu cơ tự động" có khả năng đưa ra quyết định gây chết người mà không cần con người điều khiển. Khi các công nghệ này tiếp tục phát triển, các quốc gia cần có cam kết sẵn sàng thực thi tiêu chuẩn đạo đức trong chiến tranh.
Robot chiến đấu Uran-9 của Nga ở Syria. Ảnh: RT |
Các nhà nghiên cứu trí tuệ nhân tạo ở các nền dân chủ tự do phương Tây có nghĩa vụ hỗ trợ phát triển vũ khí tự động gây chết người như một phương tiện để đảm bảo rằng chúng là những công cụ được thiết kế tốt.
AI, trong hình thức hiện tại của nó, về cơ bản là một công nghệ tối ưu hóa, có nghĩa là các giao thức được nội bộ hóa và các mục tiêu đặt ra phản ánh giá trị thực sự. Nếu những người cam kết tuân thủ các tiêu chuẩn đạo đức trên thực tế lại quyết định không đóng góp cho sự phát triển của LAWS thì công nghệ sẽ được phát triển, nhưng bởi những thành viên ít nghiêm túc hơn trong cộng đồng nghiên cứu.
Như vậy, điều quan trọng hiện nay là cần phải nhấn mạnh các phương tiện mà LAWS có thể được sử dụng để giúp chiến tranh trở nên “nhân đạo hơn” và tập trung vào việc điều chỉnh ngay trong mục đích sử dụng thay vì kêu gọi cấm sử dụng hoàn toàn.
Vũ khí tự động ưu việt và “nhân đạo” hơn con người?
Không ai có nhiều đóng góp hơn trong lĩnh vực thiết kế vũ khí tự động đảm bảo có sự cân nhắc đến vấn đề nhân đạo hơn nhà robot học người Mỹ Ronald Arkin. Ông Arkin đã làm việc với Bộ Quốc phòng Mỹ từ năm 2006 để phát triển các robot quân sự có đạo đức và liên tục cải thiện hành vi chiến trường của robot. Phần lớn lập luận của ông dựa trên thực tế đơn giản là không phải tất cả con người đều là những người tuân thủ tốt theo các quy tắc, vậy thì cũng rất khó để có thể áp đặt giá trị đạo đức toàn diện lên robot.
Trong chiến đấu, con người có xu hướng mắc nhiều sai lầm, được thúc đẩy bởi sự lo âu hoặc giận dữ. Ngoài ra, mối liên kết mạnh mẽ giữa các nhân viên quân sự cũng dẫn đến xu hướng che đậy cho nhau trong trường hợp hoạt động bất hợp pháp. LAWS sẽ không gặp phải một trong những vấn đề này. Những người phê phán khả năng của robot trong chiến tranh có xu hướng tập trung vào sự thiếu đồng cảm của công nghệ nhưng lại bỏ qua cách cảm xúc con người bị khuếch đại, thay vì giảm thiểu, từ đó gây ra những lỗi nghiêm trọng trong xung đột thực tế.
Những tiến bộ trong công nghệ AI đã phần nào cải thiện khả năng phát hiện và điều hướng đối tượng, cho phép vũ khí tự động gây chết người nhưng vẫn hạn chế thiệt hại khác. Ví dụ, robot chiến đấu có thể được lập trình để đảm bảo rằng không có phụ nữ hoặc trẻ em trong khu vực nhất định trước khi thực hiện hoạt động, và sẽ hủy bỏ thực hiện nhiệm vụ nếu phát hiện có khả năng gây thương vong dân sự.
Robot không hãm hiếp, robot không giết người, và robot không bào chữa để sát hại dân thường vô tội. Có rất nhiều sự cân nhắc cần thiết xung quanh LAWS, nhưng đó cũng chỉ là những quy trình cần thiết trong quá trình phát triển. Vũ khí tự động tồn tại rủi ro, nhưng đồng thời cũng mang lại lợi ích thực tế.
PHƯƠNG PHƯƠNG(Theo National Interest)