32 C
Ho Chi Minh City
Thứ Sáu, Tháng Tám 12, 2022

Toby Walsh, A.I. Chuyên gia, đang chạy đua để ngăn chặn robot sát thủ


Toby Walsh, giáo sư tại Đại học New South Wales ở Sydney, là một trong những chuyên gia hàng đầu về trí tuệ nhân tạo của Úc. Ông và các chuyên gia khác đã phát hành một báo cáo phác thảo những lời hứa và những cạm bẫy về đạo đức của đất nước ôm ấp A.I.

Gần đây, Tiến sĩ Walsh, 55 tuổi, đã làm việc với Chiến dịch ngăn chặn Robot sát thủ, một liên minh gồm các nhà khoa học và các nhà lãnh đạo nhân quyền đang tìm cách ngăn chặn sự phát triển của vũ khí robot tự trị.

Chúng tôi đã nói chuyện ngắn gọn tại cuộc họp thường niên của Hiệp hội vì sự tiến bộ của khoa học Hoa Kỳ, nơi ông đang thuyết trình, và sau đó trong hai giờ qua điện thoại. Dưới đây là một phiên bản chỉnh sửa của những cuộc trò chuyện.

Nó đã xảy ra dần dần, bắt đầu vào khoảng năm 2013. Tôi đã đọc rất nhiều về vũ khí robot. Tôi nhận ra rằng có rất ít đồng nghiệp trí tuệ nhân tạo của tôi đã nghĩ về sự nguy hiểm của lớp vũ khí mới này. Nếu mọi người nghĩ về họ, họ đã loại bỏ robot giết người như một thứ gì đó trong tương lai.

Từ những gì tôi có thể thấy, tương lai đã ở đây. Máy bay ném bom không người lái đang bay trên bầu trời Afghanistan. Mặc dù con người trên mặt đất điều khiển máy bay không người lái, nhưng đó là một bước kỹ thuật nhỏ để khiến chúng tự chủ.

[Giống như trang Science Times trên Facebook. | Đăng ký Bản tin Thời báo Khoa học.]

Vì vậy, vào năm 2015, tại một hội thảo khoa học, tôi đã tổ chức một cuộc tranh luận về lớp vũ khí mới này. Không lâu sau đó, Max Tegmark, người điều hành Viện nghiên cứu tương lai của M.I.T., đã hỏi liệu tôi có thể giúp anh ta lưu hành một lá thư kêu gọi cộng đồng quốc tế thông qua lệnh cấm trước đối với tất cả các vũ khí robot tự trị.

Tôi đã ký, và tại A.I. Hội nghị, tôi lưu hành nó. Đến cuối cuộc họp, chúng tôi đã có hơn 5.000 chữ ký – bao gồm những người như Elon Musk, Daniel Dennett, Steve Wozniak.

Rằng bạn có thể có máy móc quyết định con người sống hay chết. Nó băng qua lãnh thổ mới. Máy don don có la bàn đạo đức, lòng trắc ẩn và cảm xúc của chúng ta. Máy móc không phải là những sinh vật đạo đức.

Lập luận kỹ thuật là đây là những vũ khí hủy diệt hàng loạt và cộng đồng quốc tế cho đến nay đã cấm tất cả các vũ khí hủy diệt hàng loạt khác.

Điều làm cho những thứ này khác với vũ khí bị cấm trước đây là khả năng phân biệt đối xử. Bạn có thể nói, chỉ giết trẻ em, và sau đó thêm phần mềm nhận dạng khuôn mặt vào hệ thống.

Hơn nữa, nếu những vũ khí này được sản xuất, chúng sẽ làm mất cân bằng địa chính trị thế giới. Vũ khí robot tự trị sẽ rẻ và dễ sản xuất. Một số có thể được chế tạo bằng máy in 3 chiều và chúng có thể dễ dàng rơi vào tay những kẻ khủng bố.

Một điều nữa khiến chúng mất ổn định khủng khiếp là với những vũ khí như vậy, sẽ rất khó để biết nguồn gốc của một cuộc tấn công. Điều này đã xảy ra trong cuộc xung đột hiện tại ở Syria. Mới năm ngoái, đã có một cuộc tấn công bằng máy bay không người lái vào căn cứ Nga-Syria và chúng tôi không biết ai thực sự đứng đằng sau nó.

Thời điểm tốt nhất để cấm các vũ khí như vậy là trước khi chúng có sẵn. Nó khó hơn nhiều khi chúng rơi vào tay kẻ xấu hoặc trở thành một phần được chấp nhận của bộ công cụ quân sự. Hiệp ước laser chói mắt năm 1995 có lẽ là ví dụ điển hình nhất về lệnh cấm phủ đầu thành công.

Đáng buồn thay, với hầu hết mọi vũ khí khác đã được quy định, chúng tôi đã có tầm nhìn xa để làm điều đó trước khi nó được sử dụng. Nhưng với laser chói mắt, chúng tôi đã làm. Hai công ty vũ khí, một người Trung Quốc và một người Mỹ, đã tuyên bố ý định bán laser chói mắt ngay trước khi lệnh cấm được đưa ra. Không công ty nào tiếp tục làm như vậy.

Liên Hợp Quốc. Bất cứ khi nào tôi đến đó, mọi người dường như sẵn sàng nghe từ chúng tôi. Tôi chưa bao giờ trong những giấc mơ điên rồ nhất của tôi dự kiến ​​sẽ được ngồi xuống với vị tổng thư ký của Hoa Kỳ và thông báo cho anh ta về công nghệ. Một quan chức cao cấp của Hoa Kỳ đã nói với tôi rằng, chúng tôi hiếm khi bắt các nhà khoa học nói bằng một giọng nói. Vì vậy, khi chúng tôi làm, chúng tôi lắng nghe.

Cho đến nay, 28 quốc gia thành viên đã chỉ ra sự hỗ trợ của họ. Nghị viện châu Âu đã kêu gọi nó. Bộ trưởng Ngoại giao Đức đã kêu gọi. Tuy nhiên, 28 quốc gia trong số 200! Đó không phải là đa số.

Các ứng cử viên rõ ràng là Hoa Kỳ, Hoa Kỳ, Nga, Israel, Hàn Quốc. Trung Quốc đã kêu gọi lệnh cấm triển khai trước, nhưng không phát triển vũ khí.

Nó có giá trị chỉ ra rằng sẽ có một số tiền khổng lồ được tạo ra bởi các công ty bán những vũ khí này và phòng thủ cho họ.

Tôi cũng đã nghe những lập luận đó. Một số người nói rằng máy móc có thể đạo đức hơn bởi vì những người trong chiến tranh trở nên sợ hãi và làm những điều khủng khiếp. Một số người ủng hộ công nghệ hy vọng rằng điều này sẽ xảy ra nếu chúng ta có robot chiến đấu, bởi vì chúng có thể được lập trình để tuân thủ luật nhân đạo quốc tế.

Vấn đề với lập luận đó là chúng tôi không có cách nào để lập trình cho một thứ gì đó tinh tế như luật nhân đạo quốc tế.

Bây giờ, có một số điều mà quân đội có thể sử dụng robot cho việc – dọn sạch một bãi mìn là một ví dụ. Nếu một robot đi vào, bị nổ tung, bạn sẽ có một robot khác.

Không, hầu hết A.I. các nhà nghiên cứu – bao gồm cả bản thân tôi – không thích cách Hollywood đối phó với công nghệ. Kubrick [Phiên bản 2001] đã tắt, bởi vì nó dựa trên ý tưởng rằng sẽ có những cỗ máy có mong muốn tự bảo quản và điều đó sẽ dẫn đến ác cảm với con người.

Nó sai khi cho rằng họ sẽ muốn chiếm lấy, hoặc thậm chí tự bảo vệ mình. Trí thông minh mà chúng ta xây dựng sẽ khác hoàn toàn so với những gì con người có, và nó đã thắng được nhất thiết phải có những sai sót tương tự.

Những cỗ máy này không có lương tâm, và họ không có ý muốn giữ gìn bản thân. Họ sẽ làm chính xác những gì chúng tôi bảo họ làm. Chúng là những thiết bị theo nghĩa đen nhất từng được chế tạo. Họ làm theo những hướng dẫn đó, tuy nhiên họ có thể là sai lầm.

Tôi không thích là Kẻ hủy diệt, cũng vậy. Công nghệ đó là xa, rất xa. Có nhiều công nghệ trần tục hơn chúng ta nên lo lắng bây giờ, như máy bay không người lái mà tôi đã đề cập trước đó.

Bây giờ, tôi rất thích, cô ấy, vì đó là về các mối quan hệ mà chúng tôi sẽ có trong tương lai khi chúng tôi sẽ ngày càng tương tác với máy móc. Có thể, như trong phim, chúng ta sẽ nảy sinh tình cảm với họ.

Bộ phim đó nói về cách A.I. sẽ trở thành một phần phổ biến trong sự tồn tại của chúng ta trong mỗi phòng, mỗi chiếc xe. Chúng sẽ là những thứ lắng nghe chúng tôi, trả lời các câu hỏi của chúng tôi và hiểu về chúng tôi.

Không. Điều này rất quan trọng để được thực hiện ngay bây giờ. Hai mươi năm trước, giống như nhiều đồng nghiệp của tôi, tôi cảm thấy rằng những gì chúng ta đang làm trong A.I. cách xa thực tế đến nỗi chúng tôi đã không phải lo lắng về hậu quả đạo đức. Điều đó không còn đúng nữa.

Tôi có một cô con gái 10 tuổi. Khi cô ấy lớn lên, tôi không muốn hỏi cô ấy, bố ơi, bạn có một nền tảng và quyền hạn – tại sao bạn không cố gắng ngăn chặn điều này?



Nguồn The NewYork Times

Bài viết liên quan

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

Bài viết mới nhất

Kết nối với chúng tôi

333Thành viênThích
269Người theo dõiTheo dõi