pizza
05-04-2023, 00:19
Ông trùm AI rời bỏ Google, cảnh báo về hiểm họa từ trí tuệ nhân tạo. Tiến sĩ Geoffrey Hinton trong nửa thế kỷ đă ấp ủ, phát triển công nghệ trở thành nền tảng lơi của các phần mềm chat tự động (chatbot) như ChatGPT. Giờ đây, chính ông lại đang lo ngại về hiểm họa mà trí tuệ nhân tạo có thể gây ra cho loài người.
Chuyên gia hàng đầu về AI nhận ra sự nguy hiểm của AI
Geoffrey Hinton là người tiên phong trong lĩnh vực trí tuệ nhân tạo (AI). Hồi năm 2012, Tiến sĩ Hinton và 2 sinh viên đă tốt nghiệp của ông tại Đại học Toronto (Canada) đă tạo ra công nghệ trở thành nền tảng trí tuệ cho các hệ thống AI mà các công ty lớn nhất của ngành công nghệ coi là ch́a khóa cho tương lai của chính họ.
https://intermati.com/forum/attachment.php?attac hmentid=2214609&stc=1&d=1683159550
H́nh ảnh minh họa về trí tuệ nhân tạo. Đồ họa: Fujitsu.
Tuy nhiên, hôm 1/5/2023, ông Hinton đă chính thức gia nhập đội ngũ các nhà phê b́nh cho rằng các công ty trên đang chạy đua với nhau để cùng lao vào ṿng nguy hiểm bằng chiến dịch quyết liệt của họ hướng tới việc tạo ra các sản phẩm dựa trên trí tuệ nhân tạo có khả năng sản sinh - công nghệ làm nền tảng cho các chatbot phổ biến như ChatGPT.
Tiến sĩ Hinton cho hay, ông đă bỏ việc tại hăng Google, nơi ông đă làm việc trong một thập kỷ và trở thành một trong những nhân vật có tiếng nói trọng lượng nhất trong lĩnh vực này, để bảo đảm ông có thể tự do nói về các nguy cơ từ AI. Ông cho rằng một phần của chính ông giờ đây hối tiếc công việc ông đă làm trong cả đời.
Trong một cuộc phỏng vấn kéo dài vào tuần trước ở nhà ḿnh tại Toronto, Tiến sĩ Hinton tâm sự: "Tôi thường tự an ủi bản thân bằng lời bào chữa thế này: Nếu ḿnh không làm việc đó th́ cũng có ai khác làm vậy". Từ nhà Hinton chỉ đi bộ một đoạn ngắn là tới nơi ông và sinh viên của ḿnh đạt được bước đột phá trong nghiên cứu.
Việc Tiến sĩ Hinton mặc dù là người tạo nền tảng cho công nghệ AI nhưng lại quyết định nói lên những mối nguy hiểm do AI tạo ra là dấu mốc quan trọng cho ngành công nghiệp này trong nhiều thập kỷ. Giới lănh đạo ngành này tin rằng các hệ thống AI mới đóng vai tṛ quan trọng tương tự như việc tŕnh duyệt web ra đời vào đầu thập niên 1990 và có thể dẫn tới các đột phá trong các lĩnh vực từ nghiên cứu dược cho tới giáo dục.
Nhưng nhiều người bên trong ngành công nghệ này cũng lo sợ rằng họ đang tiếp tay cho sự hoành hành của một thứ ǵ đó nguy hiểm. AI với năng lực sản sinh có thể là công cụ tạo thông tin giả. Trước mắt, AI đe dọa việc làm. Sau đó, những người lo ngại nói, đây có thể là mối đe dọa đối với nhân loại.
Tiến sĩ Hinton nói: "Làm thế nào để ngăn người xấu sử dụng công nghệ này phục vụ mục đích xấu - điều đó thực khó".
Sau khi công ty khởi nghiệp OpenAI ở San Francisco công bố một phiên bản mới của ChatGPT vào tháng 3/2023, hơn 1.000 chuyên gia hàng đầu và nhà nghiên cứu công nghệ đă kư bức thư nhỏ kêu gọi tạm ngừng phát triển các hệ thống mới bởi lẽ các công nghệ AI đặt ra "các rủi ro sâu sắc đối với xă hội và nhân loại".
Vài ngày sau đó, 19 cựu và đương kim lănh đạo của Hiệp hội Thúc đẩy Trí tuệ nhân tạo (một hiệp hội học thuật có bề dày 40 năm) đă công bố lá thư riêng của họ cảnh báo các rủi ro do AI gây ra. Nhóm đó bao gồm cả Eric Horvitz - người đứng đầu bộ phận khoa học tại hăng Microsoft, công ty đă triển khai công nghệ của OpenAI trên nhiều sản phẩm khác nhau, bao gồm cả công cụ t́m kiếm Bing.
Chân dung Tiến sĩ Hinton. Ảnh: Nytimes.
Tiến sĩ Hinton, hay được gọi là "cha đỡ đầu của AI", đă không kư vào bức thư nào trong số đó. Ông khi ấy nói rằng ḿnh không muốn công khai chỉ trích Google và các ông ty khác chừng nào ông chưa thôi việc. Tháng trước (tháng 4), ông thông báo cho công ty rằng ḿnh chuẩn bị xin nghỉ việc. Hôm 27/4, ông nói chuyện qua điện thoại với Sundar Pichai - quản lư của Alphabet, công ty mẹ của hăng Google.
Trong một thông cáo, cán bộ khoa học chính của Google, Jeff Dean nói như sau: "Chúng tôi cam kết theo đuổi cách tiếp cận có trách nhiệm đối với vấn đề AI. Chúng tôi tiếp tục học cách hiểu các nguy cơ nổi lên, đồng thời cũng đổi mới một cách mạnh bạo".
Tiến sĩ Hinton, 75 tuổi, người gốc Anh, dành cả đời cho hoạt động nghiên cứu. Sự nghiệp của ông gắn với niềm tin cá nhân về việc phát triển và sử dụng AI. Năm 1972, với tư cách người tốt nghiệp Đại học Edinburgh (Scotland), ông Hinton đă theo đuổi ư tưởng mang tên "mạng thần kinh nhân tạo" - một hệ thống toán học h́nh thành nên các kỹ năng thông qua việc phân tích dữ liệu. Vào thời kỳ đó, ít nhà nghiên cứu đặt niềm tin vào ư tưởng đó. Nhưng bây giờ ư tưởng đó đă trở thành công việc của đời ông.
Thập niên 1980, Tiến sĩ Hinton là giáo sư tin học tại Đại học Carnegie Mellon (Mỹ). Ông đă rời trường này để sang Canada do ông không muốn nhận tiền tài trợ của Lầu Năm Góc. Thời đó, hầu hết nghiên cứu về AI ở Mỹ đều được Bộ Quốc pḥng Mỹ tài trợ... Tiến sĩ Hinton cực lực phản đối sử dụng trí tuệ nhân tạo trên chiến trường - điều mà ông gọi là các "quân nhân robot".
Năm 2012, Tiến sĩ Hinton cùng 2 học tṛ của ḿnh xây dựng một mạng thần kinh nhân tạo có khả năng phân tích hàng ngàn bức ảnh và tự học để nhận diện các vật thể phổ biến như hoa, chó và ô tô.
Lương tâm của nhà khoa học lên tiếng
Google chi 44 triệu USD để mua một công ty do Tiến sĩ Hinton và 2 học tṛ của ḿnh xây dựng. Và hệ thống của họ đă dẫn tới việc tạo ra các công nghệ ngày càng mạnh, bao gồm các chatbot mới như ChatGPT và Google Bard. Năm 2018, ông và các học tṛ được nhận giải Turing, được xem là "Giải Noble Tin học" để ghi nhận đóng góp của họ trong phát triển các mạng thần kinh (neural).
Cũng khoảng thời gian đó, Google, OpenAI và các công ty khác bắt đầu xây dựng các mạng neural học hỏi lượng lớn văn bản số. Tiến sĩ Hinton nghĩ rằng đây là phương thức mạnh mẽ để máy hiểu được và tạo ra ngôn ngữ, nhưng nó vẫn kém hơn so với cách thức con người xử lư ngôn ngữ.
Nhưng năm 2022 vừa qua, khi Google và OpenAI xây dựng các hệ thống sử dụng dữ liệu có dung lượng lớn hơn nhiều, quan điểm của Hinton thay đổi. Ông vẫn tin rằng các hệ thống này thấp kém hơn so với năo người về một số phương diện nhưng ông đồng thời cho rằng chúng đang vượt qua trí tuệ con người ở một số mặt khác. Ông nói: "Những ǵ đang diễn ra bên trong các hệ thống này thực sự tốt hơn nhiều những ǵ đang diễn ra trong bộ năo con người".
Tiến sĩ Hinton tin rằng khi các công ty cải tiến hệ thống AI của ḿnh, chúng sẽ trở nên ngày một nguy hiểm.
Ông nói về công nghệ AI: "Nh́n vào công nghệ này cách đây 5 năm và bây giờ. Hăy xem xét sự khác biệt và phổ biến điều đó. Thật đáng sợ".
Theo Hinton, cho tới năm ngoái, Google vẫn giám sát thận trọng công nghệ này, cẩn thận tránh công bố thứ ǵ đó có thể gây hại. Nhưng nay Microsoft đă bổ sung chatbot vào công cụ t́m kiếm của Bing, thách thức mảng kinh doanh cốt lơi của Google, thế nên Google đang chạy đua để triển khai công nghệ tương tự. Các ông lớn về công nghệ đang bị nhốt trong cuộc cạnh tranh có thể không dừng lại được.
Mối quan ngại trước mắt của Hinton là mạng internet sẽ ngập tràn các bức ảnh, đoạn video và văn bản giả, c̣n một người trung b́nh sẽ "không thể biết cái nào là thực nữa".
Vị tiến sĩ cũng lo ngại các công nghệ AI sẽ mau chóng thống lĩnh thị trường việc làm. Ngày nay, các chatbot như ChatGPT có xu hướng bổ trở người lao động nhưng chúng có thể thay thế được nhiều vị trí như trợ lư luật sư, trợ lư cá nhân, biên dịch viên và những vị trí đ̣i hỏi sự lặp lại. "Tương lai, nó có thể lấy đi nhiều công việc khác nữa".
Hinton lo sợ rằng các cá nhân và các công ty sẽ cho phép các hệ thống AI không chỉ tạo ra mă vi tính riêng mà c̣n thực sự chạy các mă đó trên chính chúng. Và ông e sợ rằng sẽ có ngày các vũ khí tự chủ hoàn toàn - các robot sát thủ - sẽ trở thành hiện thực.
Hinton nói: "Trước đây tôi nghĩ thời điểm AI thông minh hơn con người sẽ diễn ra trong 30-50 năm tới. Nhưng giờ th́ tôi không c̣n nghĩ thế nữa".
Hinton tin rằng cuộc đua giữa Google, Microsoft và các hăng khác sẽ leo thang thành một cuộc đua toàn cầu khó dừng nếu thiếu các quy định tầm toàn cầu.
Hinton phân tích, khác với vũ khí hạt nhân, không có cách nào biết được công ty hoặc nước nào đó đang phát triển công nghệ AI một cách bí mật./.
VietBF@ sưu tập
Chuyên gia hàng đầu về AI nhận ra sự nguy hiểm của AI
Geoffrey Hinton là người tiên phong trong lĩnh vực trí tuệ nhân tạo (AI). Hồi năm 2012, Tiến sĩ Hinton và 2 sinh viên đă tốt nghiệp của ông tại Đại học Toronto (Canada) đă tạo ra công nghệ trở thành nền tảng trí tuệ cho các hệ thống AI mà các công ty lớn nhất của ngành công nghệ coi là ch́a khóa cho tương lai của chính họ.
https://intermati.com/forum/attachment.php?attac hmentid=2214609&stc=1&d=1683159550
H́nh ảnh minh họa về trí tuệ nhân tạo. Đồ họa: Fujitsu.
Tuy nhiên, hôm 1/5/2023, ông Hinton đă chính thức gia nhập đội ngũ các nhà phê b́nh cho rằng các công ty trên đang chạy đua với nhau để cùng lao vào ṿng nguy hiểm bằng chiến dịch quyết liệt của họ hướng tới việc tạo ra các sản phẩm dựa trên trí tuệ nhân tạo có khả năng sản sinh - công nghệ làm nền tảng cho các chatbot phổ biến như ChatGPT.
Tiến sĩ Hinton cho hay, ông đă bỏ việc tại hăng Google, nơi ông đă làm việc trong một thập kỷ và trở thành một trong những nhân vật có tiếng nói trọng lượng nhất trong lĩnh vực này, để bảo đảm ông có thể tự do nói về các nguy cơ từ AI. Ông cho rằng một phần của chính ông giờ đây hối tiếc công việc ông đă làm trong cả đời.
Trong một cuộc phỏng vấn kéo dài vào tuần trước ở nhà ḿnh tại Toronto, Tiến sĩ Hinton tâm sự: "Tôi thường tự an ủi bản thân bằng lời bào chữa thế này: Nếu ḿnh không làm việc đó th́ cũng có ai khác làm vậy". Từ nhà Hinton chỉ đi bộ một đoạn ngắn là tới nơi ông và sinh viên của ḿnh đạt được bước đột phá trong nghiên cứu.
Việc Tiến sĩ Hinton mặc dù là người tạo nền tảng cho công nghệ AI nhưng lại quyết định nói lên những mối nguy hiểm do AI tạo ra là dấu mốc quan trọng cho ngành công nghiệp này trong nhiều thập kỷ. Giới lănh đạo ngành này tin rằng các hệ thống AI mới đóng vai tṛ quan trọng tương tự như việc tŕnh duyệt web ra đời vào đầu thập niên 1990 và có thể dẫn tới các đột phá trong các lĩnh vực từ nghiên cứu dược cho tới giáo dục.
Nhưng nhiều người bên trong ngành công nghệ này cũng lo sợ rằng họ đang tiếp tay cho sự hoành hành của một thứ ǵ đó nguy hiểm. AI với năng lực sản sinh có thể là công cụ tạo thông tin giả. Trước mắt, AI đe dọa việc làm. Sau đó, những người lo ngại nói, đây có thể là mối đe dọa đối với nhân loại.
Tiến sĩ Hinton nói: "Làm thế nào để ngăn người xấu sử dụng công nghệ này phục vụ mục đích xấu - điều đó thực khó".
Sau khi công ty khởi nghiệp OpenAI ở San Francisco công bố một phiên bản mới của ChatGPT vào tháng 3/2023, hơn 1.000 chuyên gia hàng đầu và nhà nghiên cứu công nghệ đă kư bức thư nhỏ kêu gọi tạm ngừng phát triển các hệ thống mới bởi lẽ các công nghệ AI đặt ra "các rủi ro sâu sắc đối với xă hội và nhân loại".
Vài ngày sau đó, 19 cựu và đương kim lănh đạo của Hiệp hội Thúc đẩy Trí tuệ nhân tạo (một hiệp hội học thuật có bề dày 40 năm) đă công bố lá thư riêng của họ cảnh báo các rủi ro do AI gây ra. Nhóm đó bao gồm cả Eric Horvitz - người đứng đầu bộ phận khoa học tại hăng Microsoft, công ty đă triển khai công nghệ của OpenAI trên nhiều sản phẩm khác nhau, bao gồm cả công cụ t́m kiếm Bing.
Chân dung Tiến sĩ Hinton. Ảnh: Nytimes.
Tiến sĩ Hinton, hay được gọi là "cha đỡ đầu của AI", đă không kư vào bức thư nào trong số đó. Ông khi ấy nói rằng ḿnh không muốn công khai chỉ trích Google và các ông ty khác chừng nào ông chưa thôi việc. Tháng trước (tháng 4), ông thông báo cho công ty rằng ḿnh chuẩn bị xin nghỉ việc. Hôm 27/4, ông nói chuyện qua điện thoại với Sundar Pichai - quản lư của Alphabet, công ty mẹ của hăng Google.
Trong một thông cáo, cán bộ khoa học chính của Google, Jeff Dean nói như sau: "Chúng tôi cam kết theo đuổi cách tiếp cận có trách nhiệm đối với vấn đề AI. Chúng tôi tiếp tục học cách hiểu các nguy cơ nổi lên, đồng thời cũng đổi mới một cách mạnh bạo".
Tiến sĩ Hinton, 75 tuổi, người gốc Anh, dành cả đời cho hoạt động nghiên cứu. Sự nghiệp của ông gắn với niềm tin cá nhân về việc phát triển và sử dụng AI. Năm 1972, với tư cách người tốt nghiệp Đại học Edinburgh (Scotland), ông Hinton đă theo đuổi ư tưởng mang tên "mạng thần kinh nhân tạo" - một hệ thống toán học h́nh thành nên các kỹ năng thông qua việc phân tích dữ liệu. Vào thời kỳ đó, ít nhà nghiên cứu đặt niềm tin vào ư tưởng đó. Nhưng bây giờ ư tưởng đó đă trở thành công việc của đời ông.
Thập niên 1980, Tiến sĩ Hinton là giáo sư tin học tại Đại học Carnegie Mellon (Mỹ). Ông đă rời trường này để sang Canada do ông không muốn nhận tiền tài trợ của Lầu Năm Góc. Thời đó, hầu hết nghiên cứu về AI ở Mỹ đều được Bộ Quốc pḥng Mỹ tài trợ... Tiến sĩ Hinton cực lực phản đối sử dụng trí tuệ nhân tạo trên chiến trường - điều mà ông gọi là các "quân nhân robot".
Năm 2012, Tiến sĩ Hinton cùng 2 học tṛ của ḿnh xây dựng một mạng thần kinh nhân tạo có khả năng phân tích hàng ngàn bức ảnh và tự học để nhận diện các vật thể phổ biến như hoa, chó và ô tô.
Lương tâm của nhà khoa học lên tiếng
Google chi 44 triệu USD để mua một công ty do Tiến sĩ Hinton và 2 học tṛ của ḿnh xây dựng. Và hệ thống của họ đă dẫn tới việc tạo ra các công nghệ ngày càng mạnh, bao gồm các chatbot mới như ChatGPT và Google Bard. Năm 2018, ông và các học tṛ được nhận giải Turing, được xem là "Giải Noble Tin học" để ghi nhận đóng góp của họ trong phát triển các mạng thần kinh (neural).
Cũng khoảng thời gian đó, Google, OpenAI và các công ty khác bắt đầu xây dựng các mạng neural học hỏi lượng lớn văn bản số. Tiến sĩ Hinton nghĩ rằng đây là phương thức mạnh mẽ để máy hiểu được và tạo ra ngôn ngữ, nhưng nó vẫn kém hơn so với cách thức con người xử lư ngôn ngữ.
Nhưng năm 2022 vừa qua, khi Google và OpenAI xây dựng các hệ thống sử dụng dữ liệu có dung lượng lớn hơn nhiều, quan điểm của Hinton thay đổi. Ông vẫn tin rằng các hệ thống này thấp kém hơn so với năo người về một số phương diện nhưng ông đồng thời cho rằng chúng đang vượt qua trí tuệ con người ở một số mặt khác. Ông nói: "Những ǵ đang diễn ra bên trong các hệ thống này thực sự tốt hơn nhiều những ǵ đang diễn ra trong bộ năo con người".
Tiến sĩ Hinton tin rằng khi các công ty cải tiến hệ thống AI của ḿnh, chúng sẽ trở nên ngày một nguy hiểm.
Ông nói về công nghệ AI: "Nh́n vào công nghệ này cách đây 5 năm và bây giờ. Hăy xem xét sự khác biệt và phổ biến điều đó. Thật đáng sợ".
Theo Hinton, cho tới năm ngoái, Google vẫn giám sát thận trọng công nghệ này, cẩn thận tránh công bố thứ ǵ đó có thể gây hại. Nhưng nay Microsoft đă bổ sung chatbot vào công cụ t́m kiếm của Bing, thách thức mảng kinh doanh cốt lơi của Google, thế nên Google đang chạy đua để triển khai công nghệ tương tự. Các ông lớn về công nghệ đang bị nhốt trong cuộc cạnh tranh có thể không dừng lại được.
Mối quan ngại trước mắt của Hinton là mạng internet sẽ ngập tràn các bức ảnh, đoạn video và văn bản giả, c̣n một người trung b́nh sẽ "không thể biết cái nào là thực nữa".
Vị tiến sĩ cũng lo ngại các công nghệ AI sẽ mau chóng thống lĩnh thị trường việc làm. Ngày nay, các chatbot như ChatGPT có xu hướng bổ trở người lao động nhưng chúng có thể thay thế được nhiều vị trí như trợ lư luật sư, trợ lư cá nhân, biên dịch viên và những vị trí đ̣i hỏi sự lặp lại. "Tương lai, nó có thể lấy đi nhiều công việc khác nữa".
Hinton lo sợ rằng các cá nhân và các công ty sẽ cho phép các hệ thống AI không chỉ tạo ra mă vi tính riêng mà c̣n thực sự chạy các mă đó trên chính chúng. Và ông e sợ rằng sẽ có ngày các vũ khí tự chủ hoàn toàn - các robot sát thủ - sẽ trở thành hiện thực.
Hinton nói: "Trước đây tôi nghĩ thời điểm AI thông minh hơn con người sẽ diễn ra trong 30-50 năm tới. Nhưng giờ th́ tôi không c̣n nghĩ thế nữa".
Hinton tin rằng cuộc đua giữa Google, Microsoft và các hăng khác sẽ leo thang thành một cuộc đua toàn cầu khó dừng nếu thiếu các quy định tầm toàn cầu.
Hinton phân tích, khác với vũ khí hạt nhân, không có cách nào biết được công ty hoặc nước nào đó đang phát triển công nghệ AI một cách bí mật./.
VietBF@ sưu tập