VietBF

VietBF (https://www.vietbf.com/forum/index.php)
-   School | Kiến thức (https://www.vietbf.com/forum/forumdisplay.php?f=88)
-   -   Chuyên gia lo ngại hiểm họa từ AI (https://www.vietbf.com/forum/showthread.php?t=1785000)

june04 06-09-2023 16:05

Chuyên gia lo ngại hiểm họa từ AI
 
1 Attachment(s)
Trí tuệ nhân tạo đem lại nhiều lợi ích song các chuyên gia và nhà lănh đạo ngành công nghệ bắt đầu bày tỏ lo ngại về khả năng mất kiểm soát của hệ thống siêu AI.

Báo cáo mới đây của ngân hàng Goldman Sachs (Mỹ) cho rằng trí tuệ nhân tạo thúc đẩy GDP toàn cầu tăng 7% trong ṿng 10 năm tới và 300 triệu việc làm toàn thời gian sẽ được tự động hóa, đồng thời gia tăng những công việc mới. Theo một báo cáo của PWC, AI sẽ đóng góp khoảng 15,7 ngh́n tỷ USD cho nền kinh tế toàn cầu vào năm 2030. Một số liệu khác từ Statista: đến năm 2024, sẽ có khoảng 8,4 tỷ trợ lư giọng nói được sử dụng. Con số này có thể c̣n lớn hơn nếu các công ty ôtô và thương hiệu thương mại điện tử tiếp tục bổ sung trợ lư AI để tương tác với khách hàng. C̣n với Google, các thuật toán AI đă giúp xử lư khoảng 7 tỷ truy vấn mỗi ngày. Nếu không có sự hỗ trợ của AI th́ đây sẽ là nhiệm vụ bất khả thi.

Đối với nhiều doanh nghiệp, trí tuệ nhân tạo mang đến cơ hội đạt được lợi thế cạnh tranh, tiếp cận những hiểu biết hữu ích và tăng năng suất. Trong một báo cáo từ MIT Sloan, khoảng 75% giám đốc điều hành cho biết họ tin rằng trí tuệ nhân tạo sẽ rất quan trọng đối với sự phát triển của công ty họ.

Tuy nhiên, những tiến bộ gần đây về năng lực tự học hỏi của AI như các mô h́nh ngôn ngữ lớn (LLM - Large Language models - mô h́nh xác suất có khả năng hiểu và sinh ngôn ngữ tự nhiên dựa trên các kiến thức được thu tập từ các tập dữ liệu cực lớn) đă làm dấy lên lo ngại về khả năng mất kiểm soát đối với các hệ thống siêu AI - một hệ thống có thể tự hành động một cách có chủ đích nằm ngoài khả năng giám sát hay can thiệp của con người.

Theo các chuyên gia công nghệ, với những lợi thế về công nghệ, một máy tính hoàn toàn có khả năng học tập và sẽ vượt qua trí thông minh của con người. Các nguyên tắc giúp máy có khả năng học tập giống con người. C̣n công nghệ điện toán đám mây, phân tích dữ liệu lớn... sẽ mang đến khả năng vượt trội về nhận thức cho các hệ thống AI so với trí thông minh của con người, trở thành các hệ thống AI siêu thông minh có thể thực hiện những công việc mà con người không thể thực hiện được với kỹ năng, hiểu biết và tốc độ vượt trội.

Mặc dù mô h́nh siêu AI này mới chỉ là dự đoán nhưng sự trỗi dậy của các tin tức, văn bản, h́nh ảnh, video "không thể phân biệt thật giả" được phát triển dựa trên mô h́nh ngôn ngữ lớn trong thời gian gần đây đă khiến không ít các nhân vật gạo cội trong nhiều lĩnh vực bày tỏ lo ngại về sự an toàn cho xă hội.

Vào tháng 3, hơn 1.000 nhà công nghệ và nhà nghiên cứu đă kư một bức thư ngỏ kêu gọi tạm dừng 6 tháng đối với việc phát triển AI. Thậm chí Quốc hội Mỹ đă phải tổ chức các cuộc điều trần về những rùi ro tiềm tàng từ AI - công nghệ được xem là phát minh ngoạn mục của nhân loại với khả năng tự học hỏi để thông minh lên mỗi ngày.

Phần lớn những gương mặt gạo cội trong lĩnh vực công nghệ đều cảnh báo, với khả năng học hỏi từ con người, các hệ thống AI có thể "lạc lối" và gây ra những mối nguy hiểm chết người, thậm chí ảnh hưởng đến sự tồn vong của nhân loại tương tự đại dịch và vũ khí hạt nhân.

Cha đẻ của ChatGPT, Giám đốc điều hành OpenAI, Samuel Altman đă thẳng thắn cảnh báo công nghệ mới này có thể gây ra những tác động đến xă hội tới mức cần chính phủ can thiệp. "Công nghệ này gặp vấn đề th́ rắc rối sẽ cực kỳ nghiêm trọng", CEO OpenAI, Samuel Altman chia sẻ.

Geoffrey Hinton, người được mệnh danh là "bố già" của AI, thậm chí đă từ chức tại Google để công khai chỉ trích công nghệ do chính ông mở lối. Theo ông Geofrey Hinton, nguy cơ của AI c̣n khẩn cấp hơn biến đổi khí hậu. Người ta có thể đưa ra những khuyến nghị để ngăn biến đổi khí hậu, nhưng với AI không rơ nên làm ǵ. Và nhân loại sẽ chỉ là một giai đoạn trong quá tŕnh tiến hóa của AI.

Một "bố già" AI khác, Giáo sư Yoshua Bengio, Nhà sáng lập Viện nghiên cứu AI Mila cũng đă khẳng định quân đội không được phép sử dụng sức mạnh của AI v́ đó là một trong những "nơi tồi tệ nhất có thể đặt AI siêu thông minh". Ông cũng khẳng định sự an toàn của AI nên được ưu tiên hơn tính hữu dụng.

Không chỉ những nhân vật gạo cội của giới công nghệ cảnh báo về mối nguy tiềm ẩn khi công nghệ AI "lạc lối", nhà đầu tư huyền thoại, tỷ phú người Mỹ, Warren Buffett đă so sánh sự trỗi dậy của công nghệ AI với việc tạo ra bom nguyên tử. Theo ông, khi phát minh bom nguyên tử, nhiều người cho rằng đây là một phát minh với mục đích tốt, nhưng không lường trước được hiểm họa của nó. Warren Buffett cho rằng, một khi AI có thể làm được mọi thứ, th́ con người không thể đảo ngược quá tŕnh AI phát triển hay khiến nó dừng lại.

Để AI không là mối lo mà chuyển biến thành sự hứng khởi trong nghiên cứu và ứng dụng một cách an toàn với những giá trị vượt trội về năng suất lao động, trải nghiệm khách hàng hay quản trị vận hành, các nhà khoa học cho rằng cần phải có những hiệp ước hay khung pháp lư mang tính toàn cầu về phát triển AI.

Chia sẻ tại Hội nghị thượng đỉnh AI Canada - Vietnam tại Quebec (Canada) mới đây, Giáo sư Yoshua Bengio cũng cho rằng điều quan trọng nhất là cần sử dụng AI có trách nhiệm và an toàn. Đạo đức, trách nhiệm xă hội giúp AI có thể ḥa nhập cuộc sống, nhưng để thúc đẩy AI tiếp tục phát triển mạnh mẽ hơn cần phải có hàng rào pháp lư mang tính toàn cầu trong ứng dụng vào thực tiễn cuộc sống. Để làm được điều đó, "chúng ta cần nhiều thời gian hơn nữa", Giáo sư Yoshua Bengio nói. Nhà sáng lập Viện nghiên cứu AI Mila cũng cho rằng, nên tránh thiết kế "bản năng sinh tồn" vào các hệ thống AI. Điều đó có nghĩa là không nên thiết kế các hệ thống AI giống con người, có cảm xúc, ngoại h́nh và thậm chí cả ư thức, quyền tự quyết, tự chủ v́ trí thông minh của chúng có thể nhanh chóng vượt qua con người và có thể trở thành những AI lừa đảo, thúc đẩy những lợi ích, mục tiêu không hoàn toàn v́ hạnh phúc của nhân loại.


All times are GMT. The time now is 02:22.

VietBF - Vietnamese Best Forum Copyright ©2006 - 2024
User Alert System provided by Advanced User Tagging (Pro) - vBulletin Mods & Addons Copyright © 2024 DragonByte Technologies Ltd.

Page generated in 0.03987 seconds with 8 queries