Cảm thấy ăn năn, Geoffrey Hinton quay lại nói về sự nguy hiểm của AI, mà như New York Times dẫn lời, là "những rủi ro nghiêm trọng đối với xã hội và nhân loại".
Geoffrey Hinton, nhà tiên phong trong lĩnh vực trí tuệ nhân tạo (AI), từ chức tại Google hôm 1/5, bỏ lại 10 năm phục vụ cho gã khổng lồ nước Mỹ.
Lý do từ chức, như chia sẻ của Geoffrey Hinton với New York Times, là để có thể nói chuyện thoải mái về AI, như ChatGPT, mà không ảnh hưởng đến công ty. Ông cũng bày tỏ sự hối tiếc về việc tham gia vào quá trình phát triển ChatGPT, và cố gắng tự an ủi “với lý do phổ biến này: nếu tôi không làm thì cũng có người khác làm”.
Tốt nghiệp ngành tâm lý học thực nghiệm và là tiến sĩ về trí tuệ nhân tạo, người đàn ông gốc London này đã dành cả đời mình để nghiên cứu về AI. Dù với tư cách là nhà nghiên cứu tại Carnegie Mellon, Đại học Toronto hay tại Google - công ty mà ông đã tham gia khi gia nhập nhóm Google Brain vào năm 2013, Geoffrey Hinton đã phát triển 'mạng thần kinh nhân tạo' - những hệ thống toán học biết tiếp thu những kĩ năng mới bằng cách phân tích các dữ liệu mà chúng được tiếp cận.
Năm 2018, Geoffrey Hinton được vinh danh ở Giải thưởng Turing (vốn được xem là “giải Nobel lĩnh vực khoa học máy tính - NV) cho những hệ thống mà ông tạo ra. Được coi là một yếu nhân trong lĩnh vực AI, Geoffrey Hinton đã truyền cảm hứng cho công việc của Yann Le Cun và Yoshua Bengio, 2 đồng nghiệp đã cùng ông chia sẻ Giải Turing năm 2018.
Cảm thấy ăn năn, Geoffrey Hinton quay lại nói về sự nguy hiểm của AI, mà như New York Times dẫn lời, là "những rủi ro nghiêm trọng đối với xã hội và nhân loại".
Geoffrey Hinton lo lắng về trí tuệ nhân tạo. Ảnh: Internet |
Dưới đây 5 nỗi sợ lớn nhất của Geoffrey Hinton về AI:
1. Khi cỗ máy vượt mặt người tạo ra nó
Theo Geoffrey Hinton, sự cạnh tranh giữa các ông lớn công nghệ đã dẫn đến những bước tiến mà không ai có thể tưởng tượng được.
Tốc độ mà những tiến bộ đang diễn ra đã vượt quá mong đợi của các nhà khoa học: "Chỉ một số ít người tin vào ý tưởng rằng công nghệ này thực sự có thể trở nên thông minh hơn con người và bản thân tôi nghĩ rằng nó sẽ xảy ra. Trường hợp ở đây sẽ là 30 đến 50 năm, thậm chí hơn thế nữa. Tất nhiên, tôi không nghĩ như vậy nữa".
Cho đến năm ngoái, Geoffrey Hinton vẫn không coi tiến bộ đó là nguy hiểm, nhưng quan điểm của ông đã thay đổi khi Google và OpenAI phát triển các hệ thống thần kinh có khả năng xử lý lượng dữ liệu rất lớn và có thể làm cho các hệ thống này hiệu quả hơn bộ não con người, và do đó rất nguy hiểm.
2. Cắt giảm việc làm khắp nơi
Từ quan điểm kinh tế, người đỡ đầu cho AI lo ngại rằng công nghệ này có thể làm rối loạn thị trường lao động.
Ông nói: “AI loại bỏ những công việc nặng nhọc”, đồng thời cho biết thêm rằng “nó có thể loại bỏ nhiều thứ hơn thế nữa”, đặc biệt ảnh hưởng đến các dịch giả và trợ lý cá nhân.
Việc cắt giảm việc làm sẽ không tha cho những người "thông minh" nhất, bất chấp những gì nhiều người nghĩ, tin rằng họ an toàn.
3. Những “robot chết người”
Người từng dẫn dắt Ilya Sutskever - nhà đồng sáng lập kiêm Giám đốc khoa học của OpenAI – cho rằng sự tiến bộ công nghệ đang diễn ra quá nhanh, so với các phương tiện mà ta có để điều tiết việc sử dụng AI.
Nhà nghiên cứu nói: “Tôi không nghĩ chúng ta nên tăng tốc cho đến khi chúng ta hiểu liệu chúng ta có thể kiểm soát nó hay không". Ông lo sợ rằng các phiên bản trong tương lai sẽ trở thành "mối đe dọa cho nhân loại".
Theo ông, AI trong tương lai sẽ có thể phát triển các hành vi bất ngờ sau khi phân tích một lượng lớn dữ liệu. Điều này có thể thực hiện được vì các hệ thống AI tạo ra mã của riêng chúng và điều khiển nó - thứ có thể biến chúng thành “vũ khí tự chủ” và “rô bốt chết người”, mặc dù nhiều chuyên gia đã đánh giá cao mối đe dọa này.
4. Vào tay kẻ xấu
Mối đe dọa còn đến từ việc lạm dụng AI của những kẻ nguy hiểm. Geoffrey Hinton lo lắng: "Thật khó để tìm ra cách ngăn chặn những kẻ xấu sử dụng nó cho mục đích xấu".
Ông đặc biệt phản đối việc sử dụng trí tuệ nhân tạo trong lĩnh vực quân sự. Geoffrey Hinton đặc biệt lo sợ sự phát triển của "những người lính robot" do con người tạo ra. Vào những năm 1980, ông thậm chí còn quyết định rời Đại học Carnegie Mellon ở Hoa Kỳ vì nghiên cứu của ông ở đó được Lầu Năm Góc tài trợ.
5. "Thứ tạo ra điều nhảm nhí"
Mối đe dọa cuối cùng và không kém phần quan trọng: đó là thông tin sai lệch liên quan đến AI. Sự bùng nổ khoa học này, cùng với việc sử dụng ồ ạt AI, sẽ khiến chúng ta gần như không thể phân biệt được “điều gì là đúng với điều gì không còn đúng nữa”.
Nhà khoa học thậm chí còn nói đến “thứ tạo ra điều nhảm nhí”. Một cách phát biểu để chỉ khả năng của AI trong việc đưa ra một cách hợp lý những tuyên bố có vẻ hợp lý nhưng không vì thế mà đúng sự thật.
Giải pháp là gì?
Vị chuyên gia về mạng thần kinh ủng hộ sự điều tiết liên hành tinh.
Dù vậy, Geoffrey Hinton vẫn tỉnh táo nhận ra: "Điều đó là không thể. Cũng giống như vũ khí hạt nhân, không có cách nào để biết liệu các công ty hay quốc gia có đang bí mật chế tạo chúng hay không"
"Hy vọng duy nhất là các nhà khoa học vĩ đại nhất trên thế giới hợp tác với nhau để tìm ra giải pháp kiểm soát AI", ông mong.
theo viettimes.vn
https://viettimes.vn/cha-de-ai-kinh-so-ai-5-noi-so-lon-nhat-post167419.html?utm_source=web_vt&utm_medium=home_noibat_vt&utm_campaign=noibat