Vitalik Buterin Cảnh Báo Về Nguy Cơ Từ AI Siêu Thông Minh, Kêu Gọi Tăng Cường Cơ Chế Phòng Thủ

Vitalik Buterin quyên góp hơn 500.000 USD Memecoin cho tổ chức từ thiện về động vật

Vitalik Buterin, đồng sáng lập Ethereum, đã lên tiếng cảnh báo về những rủi ro tiềm tàng từ trí tuệ nhân tạo (AI) siêu thông minh, đồng thời kêu gọi phát triển các cơ chế phòng thủ mạnh mẽ để đối phó với những mối đe dọa này.

Những lo ngại từ AI siêu thông minh của Vitalik Buterin

Trong bài viết trên blog cá nhân vào ngày 5/1/2025, Buterin đề xuất khái niệm “d/acc” (decentralized acceleration – tăng tốc phi tập trung) nhằm tập trung phát triển công nghệ để bảo vệ nhân loại, thay vì gây hại.

Buterin nhấn mạnh:

“Chúng ta không chỉ cần tăng tốc những điều tốt đẹp, mà còn phải làm chậm lại những điều xấu.”

Ông dự đoán rằng chỉ trong vòng ba năm tới, trí tuệ nhân tạo tổng quát (AGI) có thể ra đời, và siêu trí tuệ có thể xuất hiện sau đó không lâu. Điều này đặt nhân loại vào nguy cơ đối mặt với một “bẫy không thể đảo ngược” nếu không có biện pháp phòng ngừa kịp thời.

Giảm thiểu rủi ro từ AI – Các biện pháp phòng thủ

Buterin đề xuất các hệ thống AI phi tập trung, được kiểm soát bởi con người, để giảm thiểu nguy cơ AI vượt khỏi tầm kiểm soát. Ông cảnh báo về việc quân đội có thể trở thành tác nhân nguy hiểm nhất trong việc sử dụng AI cho mục đích chiến tranh, với các ví dụ điển hình như xung đột ở Ukraine và Gaza.

Buterin cho rằng:

“Quân đội có thể được miễn trừ các quy định về AI, khiến họ trở thành mối đe dọa đáng kể.”

Để đối phó với nguy cơ từ AI, Buterin đề xuất các giải pháp như:

  • Trách nhiệm người dùng: Đảm bảo rằng những người sử dụng AI phải chịu trách nhiệm về cách nó được vận hành.
  • Tạm dừng tiến bộ công nghệ: Sử dụng các nút “tạm dừng mềm” để làm chậm lại sự phát triển của AI, tạo cơ hội cho nhân loại chuẩn bị tốt hơn.
  • Kiểm soát phần cứng AI: Trang bị chip bảo vệ trong phần cứng AI, yêu cầu ba chữ ký từ các tổ chức quốc tế để hoạt động.

Buterin nhấn mạnh rằng một trong các tổ chức này nên không liên quan đến quân sự, nhằm đảm bảo tính trung lập và an toàn.

Mặc dù các biện pháp này có tiềm năng giảm thiểu rủi ro, Buterin thừa nhận chúng chỉ là giải pháp tạm thời và không thể hoàn toàn loại bỏ những nguy cơ lớn từ AI siêu thông minh.

Trong bối cảnh phát triển AI ngày càng nhanh chóng, cảnh báo của Vitalik Buterin nhấn mạnh sự cần thiết của việc phối hợp quốc tế trong điều chỉnh và quản lý công nghệ AI, bảo vệ nhân loại trước những hậu quả không lường trước.

XEM THÊM