Vào tháng 2 vừa qua, trường đại học KAIST đã bắt tay với công ty Hanwha Systems (một trong 2 công ty sản xuất bom chùm lớn nhất của Hàn Quốc) để tạo ra phòng thí nghiệm vũ khí A.I. Điều này tạo nên làn sóng phản đối từ 50 nhà nghiên cứu trí tuệ nhân tạo (A.I) hàng đầu thế giới.
Các nhà nghiên cứu trên 30 quốc gia tuyên bố sẽ từ chối ghé thăm hay hợp tác cho đến khi KAIST ngừng việc phát triển loại vũ khí không cần sự kiểm soát của con người.
Tuy nhiên, KAIST nói rằng không có ý định tham gia vào sự phát triển của hệ thống vũ khí tự động gây chết người.
Hiệu trưởng Sung-Chul Shin cho biết KAIST nhận thức rõ rệt vấn đề đạo đức liên quan đến A.I. “Tôi khẳng định một lần nữa KAIST sẽ không tiến hành bất kỳ hoạt động nghiên cứu nào chống lại nhân loại, bao gồm các vũ khí không cần đến sự kiểm soát của con người”, ông nhấn mạnh.
Trung tâm mới của KAIST sẽ đầu tư nghiên cứu sử dụng A.I hỗ trợ cho chỉ huy và kiểm soát hệ thống quốc phòng, điều hướng phương tiện không người lái dưới đáy biển, đào tạo máy bay thông minh, theo dõi và nhận dạng các đối tượng.
Mặt khác, giáo sư Toby Walsh thuộc đại học New South Wales (Sydney) cho biết KAIST đã thành công trong việc đối phó với làn sóng phản ứng gay gắt từ những nhà nghiên cứu. Nhưng ông cần nói chuyện với mọi người để kết thúc cuộc tẩy chay.
Bên cạnh đó, Walsh cho biết KAIST vẫn chưa trình bày rõ ràng phải làm như thế nào để thiết lập quyền điều khiển của con người lên tàu ngầm tự lái một khi nó đã ở dưới đáy biển và không thể liên lạc được.
Trong bức thư kêu gọi tẩy chay, các nhà nghiên cứu đã cảnh báo nếu được phép phát triển, vũ khí tự trị sẽ làm chiến tranh nổ ra nhanh chóng và ở quy mô khổng lồ. Chúng có tiềm năng trở thành vũ khí khủng bố.
Bức thư này có chữ kí từ các chuyên gia hàng đầu thế giới nghiên cứu về robot. Nó sẽ được đưa đến cuộc họp thượng đỉnh vào thứ 2 (9/4) tuần sau tại Geneva với sự góp mặt của 123 nước thành viên Liên Hợp Quốc. Họ sẽ bàn về những thách thức đặt ra bởi vũ khí tự trị gây chết người, hay được mô tả như robot sát thủ.
Walsh trả lời với Reuters rằng robot và trí tuệ nhân tạo sẽ rất có lợi khi sử dụng trong quân đội, bao gồm thay thế con người làm những việc nguy hiểm như dò mìn.
“Nhưng không nên bàn giao quyết định ai sống hay chết cho máy móc, điều này vượt quá phạm vi đạo đức của con người”, ông nhấn mạnh.
Theo Zing