#13 - AI được sử dụng ở Gaza như thế nào?

Dưới đây là một số ý chính trong video clip với tựa đề “How AI tells Israel who to bomb của Vox. 

Tổng quan về ứng dụng AI của Israel trong các xung đột hiện nay :

- Trong cuộc xung đột gần đây, hơn 34.000 người Palestine đã thiệt mạng, một con số đáng báo động so với chỉ hơn 1.400 người Israel thiệt mạng sau cuộc tấn công của Hamas ngày 7/10/2023.

- Israel đã triển khai AI trong nhiều ứng dụng quân sự đa dạng, bao gồm:

  • Hệ thống phòng thủ Vòm Sắt (Iron Dome) nhằm đánh chặn các đợt tấn công bằng tên lửa

  • Hệ thống ngắm bắn chính xác SMASH AI dành cho vũ khí cầm tay

  • Giám sát người Palestine tại các khu vực bị chiếm đóng thông qua công nghệ nhận diện khuôn mặt và sinh trắc học

- Việc ứng dụng AI trong các hoạt động quân sự đang đặt ra nhiều câu hỏi cấp bách về tính minh bạch, trách nhiệm giải trình và các chuẩn mực đạo đức trong chiến tranh hiện đại.

Các hệ thống AI được sử dụng để xác định mục tiêu tại Gaza:

1. Gospel: Xác định các mục tiêu để ném bom vào những tòa nhà và cơ sở hạ tầng cụ thể ở Gaza

  • Phối hợp với các công cụ AI khác như Alchemist (thu thập dữ liệu) và Fire Factory (phân loại dữ liệu)

  • Xác định mục tiêu trong bốn danh mục: chiến thuật, ngầm, nhà của gia đình phiến quân và các mục tiêu có giá trị (khu dân cư và tòa nhà cao tầng có thường dân)

2. Lavender: Xác định các mục tiêu cá nhân cụ thể

  • Khai thác dữ liệu lịch sử và giám sát để xác định các mục tiêu của Hamas và phiến quân Hồi giáo

  • Liên kết mục tiêu với nơi ở của gia đình và đề xuất loại vũ khí tương ứng dựa trên cấp bậc của đối tượng mục tiêu

  • Số lượng thường dân được phép thiệt mạng dao động từ 15-20 cho các tay súng Hamas cấp thấp cho đến 300 cho một số mục tiêu cấp cao

Những quan ngại hiện nay về việc sử dụng AI cho mục đích quân sự ở Gaza:

- Các hệ thống AI chỉ đưa ra dự đoán dựa trên xác suất thống kê, không có độ chính xác tuyệt đối, và trí tuệ của chúng phụ thuộc vào chất lượng dữ liệu đầu vào cũng như nhận thức của con người đã phát triển ra chúng.

- Thiếu sự giám sát và trách nhiệm giải trình thỏa đáng cho việc sử dụng AI trong chiến tranh.

- Quan điểm cho rằng việc áp dụng AI sẽ giúp các cuộc chiến diễn ra nhanh chóng hơn, từ đó dẫn tới an ninh và hòa bình toàn cầu đang bị đặt dấu hỏi lớn.

- Giới chuyên gia nhận định rằng Gaza đang bị biến thành một điểm thử nghiệm bất đắc dĩ cho các công nghệ AI quân sự trong tương lai.

- Cần phải kiềm chế đà phát triển của các sáng kiến công nghệ này để ngăn chặn thêm những tổn thất về người trong dân thường.

- Việc triển khai AI trong chiến tranh cần tuân thủ nghiêm ngặt các nguyên tắc đạo đức và pháp lý để bảo vệ thường dân và tránh những hậu quả khôn lường.

- Cộng đồng quốc tế cần phối hợp chặt chẽ để thiết lập các tiêu chuẩn và quy định rõ ràng về ứng dụng AI trong hoạt động quân sự, đảm bảo tính chịu trách nhiệm và giảm thiểu tác động tới người dân.

- Cần có thêm nhiều nghiên cứu chuyên sâu và thảo luận về tác động lâu dài của AI trong chiến tranh, bao gồm các khía cạnh đạo đức, pháp lý và xã hội.

Nhận xét, đánh giá:

- Việc Israel sử dụng các hệ thống AI như Gospel và Lavender trong việc xác định mục tiêu tại Gaza cho thấy sự phát triển nhanh chóng và ứng dụng rộng rãi của công nghệ này trong lĩnh vực quân sự. Tuy nhiên, tỷ lệ thương vong dân sự đáng báo động trong cuộc xung đột gần đây đặt ra câu hỏi về tính chính xác, đạo đức và hệ quả của việc sử dụng AI trong chiến tranh.

- Trong tương lai không xa (5-10 năm tối đa), nhiều khả năng các quốc gia, không chỉ các cường quốc về quân sự hiện nay, sẽ ngày càng đầu tư mạnh mẽ hơn vào việc phát triển và triển khai các hệ thống AI quân sự, dẫn đến nguy cơ chạy đua vũ trang và sự bất ổn trên toàn cầu. Cộng đồng quốc tế cần có những nỗ lực phối hợp để kiểm soát và quản lý việc sử dụng AI trong lĩnh vực này, tuy nhiên đây là một thách thức rất lớn vì các nước có ảnh hưởng nhất trong trật tự quốc tế hiện nay thường là những nước có tần suất tham chiến cao.

- Các thách thức chính trong quản trị AI trong tương lai bao gồm:

  • Thiết lập các quy tắc và tiêu chuẩn quốc tế rõ ràng về việc phát triển và sử dụng AI trong quân sự, đảm bảo tính minh bạch, trách nhiệm giải trình và tuân thủ các nguyên tắc đạo đức.

  • Tăng cường hợp tác quốc tế và chia sẻ thông tin để ngăn chặn sự phát triển và sử dụng AI vào mục đích xâm lược hoặc vi phạm luật pháp quốc tế.

  • Đầu tư nghiên cứu và phát triển các biện pháp kỹ thuật để đảm bảo sự kiểm soát của con người đối với các hệ thống AI và giảm thiểu rủi ro.

  • Thúc đẩy đối thoại giữa các bên liên quan, bao gồm chính phủ, quân đội, giới công nghệ, học giả về tác động của AI trong chiến tranh, từ đó xây dựng nhận thức chung về vấn đề này.

Previous
Previous

#14 - 5 Bài học từ “Kênh liên lạc chiến lược” Mỹ-Trung trong quản trị quan hệ nước lớn

Next
Next

#12 - Yếu tố hạt nhân trong tính toán của Nga ở Ukraine