Ngăn chặn AI mất kiểm soát: Vitalik chọn "viên thuốc đỏ"
Hãy tưởng tượng bạn đang ở ngã rẽ của lịch sử, nơi con người đứng trước một quyết định sống còn: tiếp tục lao vào đổi mới công nghệ hay dừng lại một chút để suy nghĩ và kiểm soát những gì đang được tạo ra?
Vitalik Buterin, đồng sáng lập Ethereum, đã đưa ra ý tưởng mang tên “soft pause” - giải pháp nhằm tạm thời giảm tốc độ hoặc hạn chế sự phát triển mạnh mẽ của trí tuệ nhân tạo trong ngắn hạn.
Ý tưởng này không chỉ mang tính kỹ thuật, mà còn là lời nhắc về trách nhiệm của con người khi đối diện với nguy cơ công nghệ vượt tầm kiểm soát.
“Soft pause” - Cơ chế chuẩn bị cho tương lai bất định của siêu AI
Trong bài blog mới đây, Vitalik chia sẻ về triết lý d/acc (decentralized and democratic, differential defensive acceleration) với sứ mệnh khởi tạo và duy trì một thế giới dân chủ hơn, tránh tình trạng tập trung quyền lực và sự phát triển không kiểm soát của công nghệ.
Trong đó, Vitalik đề xuất “soft pause” như một giải pháp mang tính chiến lược để đối phó với những rủi ro chưa từng có từ AI. Theo ông, thay vì kêu gọi dừng phát triển AI hoàn toàn, thế giới cần một khoảng thời gian ngắn từ 1 - 2 năm để kiểm soát công nghệ này. Trong khoảng thời gian đó, công suất tính toán của các hệ thống AI công nghiệp bị giảm khoảng 90 - 99%.
Điều này sẽ giúp cộng đồng toàn cầu có thêm thời gian nghiên cứu, xây dựng các biện pháp phòng ngừa và đưa ra những nguyên tắc an toàn trước khi AI đạt đến cấp độ “siêu trí tuệ nhân tạo (AGI)” - một trạng thái mà sự kiểm soát truyền thống trở nên bất khả thi.
Qua đó, Vitalik không chỉ đề xuất tích hợp chip tin cậy (loại chip được thiết kế đặc biệt, không dễ bị giả mạo hoặc hack) vào phần cứng thiết bị AI công nghiệp mà còn thiết kế một cơ chế kiểm soát chi tiết.
Với cơ chế này, ba tổ chức quốc tế độc lập (ông không nêu cụ thể) sẽ thực hiện xác nhận định kỳ, đảm bảo AI vận hành chỉ khi đáp ứng nguyên tắc “tất cả đồng thuận hoặc không có gì”. Nhờ đó, các thiết bị chỉ hoạt động khi có sự đồng thuận định kỳ giữa các bên, đảm bảo tính minh bạch và phi tập trung.
Ngoài “soft pause”, Vitalik cũng đề xuất thiết lập các quy định trách nhiệm pháp lý rõ ràng cho nhà phát triển và người dùng AI, đảm bảo mọi công nghệ được phát triển đều đặt tính an toàn lên hàng đầu. Ông kêu gọi tăng cường đầu tư vào công nghệ phòng thủ, thay vì chỉ tập trung vào công nghệ “tấn công” mang tính cạnh tranh.
Dưới đây là những công nghệ phòng thủ mà Vitalik đề xuất.
Đọc thêm: Siêu trí tuệ nhân tạo AGI & con người - Khi tương lai Cyborg không còn xa?
Nếu AI tìm cách chiếm lĩnh thế giới?
Vitalik đặt vấn đề: “Nếu AI tìm cách chiếm lĩnh thế giới, nó sẽ làm điều đó như thế nào?”. Theo ông, có ba kịch bản chính mà AI có thể khai thác để đạt được mục tiêu này, đồng thời, đó cũng là ba lĩnh vực mà con người cần tập trung để “phòng thủ”.
Hãy tưởng tượng: nếu AI tấn công và xâm nhập hệ thống máy tính? Giải pháp chính là phát triển cyber-defense, một hệ thống phòng thủ an ninh mạng. Nếu AI sử dụng công nghệ sinh học để tạo ra siêu dịch bệnh thì bio-defense, hay phòng thủ công nghệ sinh học, sẽ là tấm khiên bảo vệ nhân loại.
Nhưng nếu AI thao túng con người bằng cách lan truyền sự ngờ vực hoặc tạo ra những thông tin sai lệch thì sao? Lúc này, info-defense - hệ thống phòng thủ thông tin, sẽ trở thành lớp lá chắn duy trì niềm tin và sự ổn định.
Trong số đó, cyber-defense nổi lên như tuyến phòng thủ cấp thiết nhất khi AI có thể trở thành vũ khí nguy hiểm cho các hệ thống trọng yếu như ngân hàng, mạng lưới điện hoặc cơ sở hạ tầng quốc gia.
Nếu một AI có khả năng xâm nhập và phá hủy toàn bộ hệ thống tài chính của một quốc gia, nó sẽ gây ra tình trạng hỗn loạn kinh tế trên diện rộng như trong bộ phim “Kẻ hủy diệt”. Những sự cố như vậy không chỉ làm tê liệt một quốc gia mà còn lan rộng ra toàn cầu.
Với bio-defense, AI kết hợp với công nghệ sinh học có thể tạo ra các đại dịch nhân tạo từ những mã nguồn tưởng chừng vô hại. Các loại vi rút này có thể vượt qua mọi hệ thống y tế hiện đại, gây tổn hại đến sức khoẻ của mọi người trên toàn cầu.
Vitalik nhấn mạnh tầm quan trọng của các công nghệ như hệ thống lọc không khí thông minh và phát hiện sớm mầm bệnh qua dữ liệu mã nguồn mở… để ngăn chặn thảm họa tiềm tàng trong lĩnh vực này.
Trong lĩnh vực info-defense, AI có thể thao túng dư luận và gây bất ổn xã hội. Với công nghệ deepfake, AI có khả năng tạo ra các chiến dịch tuyên truyền sai lệch, đẩy nhân loại vào tình trạng ngờ vực và chia rẽ. Đây là lúc info-defense trở thành công cụ thiết yếu, giúp bảo vệ tính xác thực của thông tin và duy trì lòng tin trong xã hội.
Hiện nay, các vụ lừa đảo qua công nghệ deepfake - sử dụng AI để giả mạo video, hình ảnh đang gây ra thiệt hại lớn. “Deepfake làm mờ ranh giới giữa thật và giả, rủi ro về lòng tin và mức độ an toàn trực tuyến chưa bao giờ lớn đến thế”, Abhishek Karnik - nhà nghiên cứu tại McAfee chia sẻ.
Blockchain - đối trọng của AI
Rủi ro từ AI không chỉ là tấn công mạng, siêu dịch bệnh hay thông tin sai lệch, chúng còn đặt ra thách thức lớn hơn: làm thế nào để xây dựng các hệ thống phòng thủ đủ minh bạch, bảo mật và không phụ thuộc vào quyền lực tập trung.
Đây chính là lúc blockchain xuất hiện, Vitalik nói. Blockchain mang đến cơ hội xây dựng những hệ thống minh bạch, nơi quyền lực không tập trung vào tay bất kỳ cá nhân hoặc tổ chức nào.
Các công nghệ như Zero-knowledge Proofs (bằng chứng không kiến thức) đóng vai trò quan trọng trong việc bảo vệ quyền riêng tư khi thu thập dữ liệu người dùng. Điều này đặc biệt cần thiết trong lĩnh vực bio-defense, nơi các dữ liệu nhạy cảm cần được bảo vệ mà không làm mất đi quyền riêng tư.
Ngoài ra, Prediction markets (Thị trường dự đoán) - cũng là một ứng dụng nổi bật của blockchain, mang lại lợi ích trong việc phát hiện và dự đoán các rủi ro từ AI. Bằng cách tận dụng AI, các nền tảng này có thể cung cấp thông tin đáng tin cậy và hỗ trợ việc ra quyết định một cách hiệu quả hơn.