Thiên Tài Stephen Hawking Đã Lên Tiếng Về Siêu Trí Tuệ AI -
Top
0904.580.004
laptopcarevietnam@gmail.com
phone_in_talk Hotline: 24/7 0832.620.620
phone_in_talk Hỗ trợ & tư vấn 0904.580.004
drafts Hỗ trợ & tư vấn b 0904.580.004b

Thiên Tài Stephen Hawking Đã Lên Tiếng Về Siêu Trí Tuệ AI

Sự Cảnh Giác Đối Với AI

Stephen Hawking là một bộ óc vĩ đại nhất hiện nay còn sống, lời nói và những phát biểu của ông luôn được cả thế giới lắng nghe . Ông đã bày tỏ quan điểm của mình về tương lai, sự sống ngoài trái đất cho đến siêu trí tuệ AI.

thien-tai-stephen-hawking

Thiên Tài Stephen Hawking

Ông cho rằng AI là một mối lo ngại lớn có khả năng xóa sổ cả nhân loại này. Bởi vì bên cạnh những điểm tích cực còn có những tiêu cực đáng sợ. Nếu AI học được tư tưởng tiêu cực đến từ chủ nghĩa phát xít, hay những thói xấu của con người thì quả là điều không may.

Lên Kế Hoạch Kiểm Soát AI

Stephen Hawking cùng với CEO Tesla Elon Musk đã kêu gọi một lệnh cấm phát triển robot AI cho quân đội sử dụng. Ông lo lắng nó sẽ xóa sổ loài người hoặc tệ hơn là chấm dứt thế giới này.

Hawking bảo rằng biện pháp tốt nhất bây giờ là tạo ra một cơ quan tổ chức có thể kiểm soát công nghệ này. Ông giải thích vì sao cần điều này:

“Khi nền văn minh nhân loại bắt đầu đặt nền móng thì con ngưỡi đã biết tiếp thu và tích lũy kiến thức qua các thế hệ, nhưng lại bị giới hạn bởi gen và theo theo tiến hóa của Darwin. Còn với AI thì không như vậy và đó là một cơn lốc rất nhanh, nó sẽ sớm nuốt chửng toàn bộ nền văn minh nhân loại và cơ sỡ dự liệu của mình. Đó chính là điều đáng sợ và cần phải có biện pháp khắc phục.”

Tầm Nhìn Phát Triển

Ông cho rằng sự phát triển của siêu trí tuệ nhân tạo là điều tất yếu cho xã hội ngày nay khi hầu hết các công nghệ hiện đại đang dần bão hòa. “AI sẽ tiếp thu và đào thải những gì không phù hợp với một tốc độ kinh khủng, so với sự tiến hóa sinh học chậm của con người thì sớm hya muộn cũng sẽ bị nó đào thải và thay thế”.

sieu-tri-tue-ai

Trí Tuệ Nhân Tạo AI

Hawking cho rằng nó sẽ không bỏ qua chúng ta với bất cứ lý do tình cảm nào. Mặc dù “nguy cơ của AI không phải là một sự cố ý , nhưng một siêu trí tuệ thông minh sẽ hoàn thành tốt nhiệm vụ và mục tiêu của mình nhưng nếu mục tiêu đó không phù hợp với chúng ta thì ta sẽ gặp rắc rối”.

Khả Năng Thích Ứng Nhanh Của Nhân Loại

Theo ông những gì chúng ta cần làm để tồn tại trước sự nổi dậy của AI và siêu trí tuệ thì các cơ quan chính phủ trước tiên cần phải thích nghi. Và rất may mắn là đã có một số tổ chức được thành lập cho mục đích này đó là The Partnership On AIThe Ethics And Governance Of Artificial Intelligence Fund (or AI Fund), đã bắt đầu phát triển các khuôn khổ cho AI. IEEE đã phát hành bộ sách về hướng dẫn hệ thống đạo đức AI.

Mặc dù xuất hiện cả hai khía cạnh tốt và xấu nhưng Stephen Hawking vẫn luôn lạc quan về tương lai và ông nói “tất cả điều này có hơi viễn vong nhưng tôi là một người lạc quan, tôi nghĩ rằng loài người sẽ thay đổi để thích ứng và vượt qua được thử thách này”.

Tag: Thao Tác Xử Lí Laptop Khi Bị Vô Nước | Thảm Họa Cloudbleed Vừa Xảy Ra | Trí Tuệ Nhân Tạo AI Là Một Con Dao 2 Lưỡi | Apple Lên Kệ Sản Phẩm Mới 20/3

Trí tuệ nhận tạo AI dưới góc nhìn của Stephen Hawking thì ngoài lợi ích ra nó còn là một thảm họa có thể hủy diệt nhân loại và trái đất này.
Tìm cửa hàng
0832.620.620
Chat facebook
Chat trên Zalo