Root NationTin tứcTin tức CNTTCựu lãnh đạo Google so sánh trí tuệ nhân tạo với vũ khí hạt nhân

Cựu lãnh đạo Google so sánh trí tuệ nhân tạo với vũ khí hạt nhân

-

Cựu Giám đốc điều hành Google Eric Schmidt đã so sánh trí tuệ nhân tạo (AI) với vũ khí hạt nhân và kêu gọi một chế độ răn đe, tương tự như sự hủy diệt được đảm bảo lẫn nhau, giúp các quốc gia hùng mạnh nhất thế giới không tiêu diệt lẫn nhau.

Cựu lãnh đạo Google so sánh trí tuệ nhân tạo với vũ khí hạt nhân

Schmidt đã nói về sự nguy hiểm của trí tuệ nhân tạo tại Diễn đàn An ninh Aspen vào ngày 22 tháng trong một cuộc thảo luận về an ninh quốc gia và AI. Khi được hỏi về giá trị của đạo đức trong công nghệ, Schmidt giải thích rằng bản thân ông đã rất ngây thơ về sức mạnh của thông tin trong những ngày đầu của Google. Sau đó, ông kêu gọi công nghệ để phù hợp hơn với đạo đức và đạo đức của những người mà họ phục vụ, và đưa ra một so sánh kỳ lạ giữa trí tuệ nhân tạo và vũ khí hạt nhân.

Schmidt nói về tương lai gần, trong đó Trung Quốc và Hoa Kỳ cần phải ký kết một thỏa thuận về trí tuệ nhân tạo. Schmidt nói: “Vào những năm 50 và 60, chúng tôi đã tạo ra một thế giới nơi có quy tắc 'không có gì bất ngờ' đối với việc thử nghiệm hạt nhân, và kết quả là chúng đã bị cấm. "Đây là một ví dụ về sự cân bằng của lòng tin hoặc sự thiếu tin tưởng, đây là quy tắc 'không có gì ngạc nhiên.' Tôi rất lo ngại rằng việc Hoa Kỳ coi Trung Quốc là tham nhũng hay cộng sản hay bất cứ thứ gì, và việc Trung Quốc coi Mỹ là kẻ thua cuộc ... sẽ cho phép mọi người thốt lên: "Ôi Chúa ơi, họ đang làm gì đó", và sau đó một cái gì đó không thể hiểu được sẽ bắt đầu ....

AI và học máy là một công nghệ hấp dẫn và thường bị hiểu nhầm. Về cơ bản anh ấy không thông minh như mọi người nghĩ. Nó có thể tạo ra các tác phẩm nghệ thuật cấp độ tuyệt tác, đánh bại mọi người tại Starcraft II và thực hiện các cuộc gọi điện thoại thô sơ cho người dùng. Tuy nhiên, những nỗ lực để làm cho nó thực hiện các nhiệm vụ khó khăn hơn, chẳng hạn như lái xe trong một thành phố lớn, đã không thành công.

Schmidt nói về một tương lai gần trong tưởng tượng, trong đó cả Trung Quốc và Mỹ đều lo ngại về các vấn đề an ninh, điều này sẽ buộc họ phải tham gia một loại hiệp ước để ngăn chặn AI. Ông nhớ lại những năm 1950 và 60, khi ngành ngoại giao phát triển một loạt các biện pháp kiểm soát xung quanh những vũ khí nguy hiểm nhất trên hành tinh. Nhưng phải mất một thập kỷ các vụ nổ hạt nhân và quan trọng nhất là sự hủy diệt của hai thành phố Hiroshima và Nagasaki, hòa bình mới có được trước khi Hiệp ước cấm thử hạt nhân, SALT II và các đạo luật mang tính bước ngoặt khác được ký kết.

Hai thành phố của Nhật Bản bị Mỹ tàn phá vào cuối Thế chiến II đã cướp đi sinh mạng của hàng chục nghìn người và chứng minh cho cả thế giới thấy nỗi kinh hoàng muôn thuở của vũ khí hạt nhân. Sau đó chính phủ Nga và Trung Quốc đổ xô đi mua vũ khí. Cách chúng ta sống với khả năng những vũ khí này sẽ được sử dụng là cái được gọi là Sự phá hủy được đảm bảo lẫn nhau (MAD), một lý thuyết răn đe đảm bảo rằng nếu một quốc gia tung ra vũ khí hạt nhân, thì có thể bất kỳ quốc gia nào cũng sẽ làm như vậy. Chúng ta không sử dụng vũ khí hủy diệt nhất hành tinh vì khả năng nó sẽ hủy diệt ít nhất nền văn minh trên thế giới.

Bất chấp những bình luận đầy màu sắc của Schmidt, chúng tôi không muốn hoặc cần MAD cho AI. Thứ nhất, AI vẫn chưa chứng minh được sức công phá của nó so với vũ khí hạt nhân. Nhưng những người nắm quyền lo sợ công nghệ mới này, và thường là vì những lý do sai lầm. Người ta thậm chí còn đề xuất giao quyền kiểm soát vũ khí hạt nhân cho một trí tuệ nhân tạo, tin rằng nó sẽ là người phân xử việc sử dụng nó tốt hơn con người.

Cựu lãnh đạo Google so sánh AI với vũ khí hạt nhân

Vấn đề với trí tuệ nhân tạo không phải là nó có sức công phá tiềm tàng như vũ khí hạt nhân. Vấn đề là trí tuệ nhân tạo chỉ tốt như những người đã phát triển nó và nó mang những giá trị của những người tạo ra nó. AI mắc phải vấn đề kinh điển "đổ rác vào, đổ rác ra ngoài": các thuật toán phân biệt chủng tộc tạo ra các robot phân biệt chủng tộc và tất cả AI đều mang thành kiến ​​của người tạo ra nó.

Demis Hassabis, Giám đốc điều hành của DeepMind, công ty đào tạo AI có khả năng đánh bại người chơi Starcraft II, dường như hiểu điều này hơn Schmidt. Trong một cuộc phỏng vấn hồi tháng trên podcast của Lex Friedman, Friedman đã hỏi Hassabis làm thế nào để một công nghệ mạnh như AI có thể được kiểm soát, và làm thế nào để bản thân Hassabis có thể tránh bị sức mạnh đó làm hỏng.

Câu trả lời của Khasabis là về bản thân anh ta. Ông nói: “Trí tuệ nhân tạo là một ý tưởng quá lớn. “Điều quan trọng là ai tạo ra AI, họ đến từ những nền văn hóa nào và giá trị của họ là gì. Hệ thống AI sẽ tự học ... nhưng hệ thống sẽ vẫn in đậm dấu ấn văn hóa và giá trị của các tác giả của hệ thống. "

Trí tuệ nhân tạo là sự phản ánh của tác giả của nó. Nó không thể san bằng thành phố với một vụ nổ 1,2 megaton. Trừ khi một người dạy anh ta điều này.

Bạn có thể giúp Ukraine chiến đấu chống lại những kẻ xâm lược Nga. Cách tốt nhất để làm điều này là quyên góp quỹ cho Các lực lượng vũ trang của Ukraine thông qua Cuộc sống tiết kiệm hoặc thông qua trang chính thức NBU.

Đọc thêm:

Dzherelophó
Đăng ký
Thông báo về
khách sạn

0 Nhận xét
Bài đánh giá được nhúng
Xem tất cả các bình luận