Written By Theo markettimes.vn 08/12/2024
Sau lễ trao giải thưởng VinFuture 2024, sáng 7/12, tại Đại học VinUni, các nhà khoa học đoạt giải đã có buổi giao lưu ý nghĩa với hàng trăm khán giả là sinh viên, các nhà khoa học trẻ, cộng đồng khởi nghiệp. Tại đây, hai nhà khoa học hàng đầu về trí tuệ nhân tạo là GS. Yoshua Bengio và GS. Yann LeCun đã có những chia sẻ thú vị với công chúng.
Nhớ lại những năm 1990, thời điểm được mệnh danh là mùa đông của trí tuệ nhân tạo (AI), khi nhiều người không mấy thiện cảm và hoài nghi về khả năng của AI, giáo sư Yoshua Bengio chia sẻ rằng, ông và những người bạn đồng nghiệp đã có chung một tầm nhìn, dù lúc bấy giờ, không nhiều người tin tưởng vào hướng đi mà họ lựa chọn.
Trong khi đó, Giáo sư Yann LeCun lại nhìn nhận rằng, mặc dù vào thập niên 80 và 90, AI không được chú ý nhiều và có phần bị lãng quên, thì thực tế những phương pháp đã được nghiên cứu từ những năm 1950 cho thấy sự quan tâm đối với AI có sự trồi sụt. Ông nhắc lại rằng, dù vào cuối những năm 1960, máy học suýt bị khai tử, nhưng ngành nghiên cứu này vẫn tiếp tục phát triển.
Giáo sư Bengio không nghĩ rằng công việc của mình sẽ thay đổi xã hội ngay từ đầu, trong khi ông LeCun có ý tưởng đơn giản làm tìm ra bí mật trí thông minh.
Bàn về sự an toàn của nhân loại khi AI trở nên thông minh hơn, Giáo sư Bengio và LeCun đều đồng tình rằng đây là một chủ đề quan trọng cần được thảo luận và đặt ra những quan điểm khác nhau để đảm bảo rằng khi AI phát triển, chúng vẫn có thể được kiểm soát và phục vụ lợi ích của con người hơn là trở thành mối đe dọa.
Giáo sư Yoshua Bengio khẳng định rằng đây là một tranh luận cần thiết và chúng ta cần phải tôn trọng các quan điểm khác nhau. Ông nhấn mạnh rằng việc kiểm soát các hệ thống thông minh vẫn là một thách thức lớn mà chúng ta phải đối mặt.
Sẽ ra sao nếu ta muốn tắt máy nhưng AI không đồng ý?- Ảnh 2.
Giáo sư Yann LeCun
Trong khi đó, Giáo sư Yann LeCun bày tỏ quan điểm rằng AI không nguy hiểm nếu như chúng không được lập trình với những động lực cụ thể. Theo ông, AI hiện tại chỉ có tri thức nhưng không có động lực, và nếu chúng ta tạo ra động lực tích cực cho AI để đóng góp cho cộng đồng, chúng sẽ phục vụ con người đúng cách.
Ông LeCun cũng tin tưởng rằng giống như việc chúng ta đã làm cho máy bay trở nên an toàn hơn trong 50 năm qua, chúng ta cũng có thể làm cho AI an toàn hơn.
Bên cạnh quan điểm đó, Giáo sư Bengio chỉ ra rằng chỉ cần một sai sót nhỏ cũng có thể dẫn đến hậu quả nghiêm trọng đối với loài người.
Sẽ ra sao nếu ta muốn tắt máy nhưng AI không đồng ý?- Ảnh 3.
Giáo sư Yoshua Bengio
"Có nhiều thứ tôi không đồng tình. Vì chỉ 1 vấn đề nhỏ có thể ảnh hưởng tồn vong con người. Anh nói đúng về động lực của AI. Nhưng động lực xấu hình thành thế nào? Con người hoàn toàn có thể đưa động lực vào máy. Có người muốn biến máy trở thành con người, tự dưng khi đó máy muốn bảo toàn cho chính nó. Khi ta muốn tắt máy nhưng máy ko chịu. Khi ta huấn luyện cho máy, máy sẽ nghĩ là làm sao làm tốt để giành được phần thưởng, nhưng cũng sẽ nghĩ làm sao chiếm luôn quyền trao thưởng. Tất nhiên ta phải đảm bảo kịch bản đó ko xảy ra" - giáo sư nhấn mạnh.
Sự kiện kỳ lạ này được phát hiện thông qua một tín hiệu bức xạ đặc biệt, được đặt tên là AT 2021hdr.
Các phi hành gia của NASA Butch Wilmore và Sunita Williams sẽ ở lại ít nhất chín tháng liên tiếp trên Trạm vũ trụ quốc tế trước khi trở về Trái đất. Liệu chuyến bay vũ trụ kéo dài này có lập kỷ lục?