Romano
06-17-2023, 16:08
AI (trí tuệ nhân tạo) đang đi vào cuộc sống của mỗi quốc gia, mỗi con người và biến những điều không tưởng thành hiện thực một cách nhanh chóng, giúp giải phóng sức lao động của con người. Tuy nhiên, sự thâm nhập như vũ băo ấy của AI đang gây ra những lo ngại rằng sự phát triển của AI có thể đánh dấu sự kết thúc của loài người nếu những kẻ xấu nhúng tay vào; giảm thiểu rủi ro của AI nên là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xă hội khác như đại dịch và chiến tranh hạt nhân. Một cuộc đua kiểm soát AI đang thực sự bắt đầu.
Giấc mơ hay ác mộng?
Trong cuộc nói chuyện gần đây trên tờ The New York Times, Tiến sĩ Geoffrey Hinton - người đă dành cả sự nghiệp của ḿnh để nghiên cứu việc sử dụng công nghệ AI và nhận được Giải thưởng Turing vào năm 2018 thú nhận, “tiến bộ đạt được trong công nghệ AI trong 5 năm qua là đáng sợ”. C̣n triệu phú đầu tư nổi tiếng Scott Galloway – người đă sáng lập 9 công ty lớn đồng thời là Giáo sư tại Khoa Kinh doanh Stern thuộc Đại học New York, từng lọt vào danh sách 50 Giáo sư kinh doanh xuất sắc thế giới của trang thông tin Poets & Quants năm 2012, khẳng định, AI đang khiến thế hệ trẻ cô đơn và chán nản hơn.
Báo cáo từ Diễn đàn Kinh tế thế giới trong tháng 5/2023 đă cảnh báo, 83 triệu việc làm sẽ biến mất vào năm 2027 do sự phát triển của công nghệ AI; đồng thời 69 triệu việc làm mới sẽ được tạo ra nhờ sự xuất hiện của công nghệ AI. C̣n Ngân hàng đầu tư Goldman Sachs cho rằng, AI là mối đe dọa đối với khoảng 300 triệu việc làm toàn thời gian trên toàn cầu, bao gồm 2/3 tổng số việc làm ở Mỹ và châu Âu…
Một tuyên bố được công bố trên trang web của Trung tâm An toàn AI - một tổ chức phi lợi nhuận có trụ sở tại San Francisco (Mỹ) cho biết, AI trong chiến tranh có thể “cực kỳ nguy hại'” v́ nó được sử dụng để phát triển vũ khí hóa học mới và tăng cường khả năng chiến đấu trên không. Lord Rees, nhà thiên văn học Hoàng gia của Vương quốc Anh nói: “Những thứ này có thể gặp trục trặc do “lỗi ẩn” và sự cố có thể khó sửa chữa. Những sự cố quy mô lớn của lưới điện, Internet… có thể dẫn đến sự đổ vỡ xă hội thảm khốc”. Chưa hết, thông tin sai lệch do AI tạo ra có thể được sử dụng để gây ảnh hưởng đến các cuộc bầu cử thông qua “các chiến dịch thông tin sai lệch tùy chỉnh trên quy mô lớn” và việc sử dụng rộng răi AI có thể gây nguy hiểm, khiến xă hội trở nên “hoàn toàn phụ thuộc vào máy móc, tương tự như kịch bản được miêu tả trong phim WALL-E”.
Đề xuất từ đại gia công nghệ và nỗi lo của các chính phủ
Tháng 3/2023, tỷ phú Elon Musk khi trả lời phỏng vấn hăng CNBC, đă kêu gọi các nhà khoa học tạm dừng phát triển AI để đảm bảo nó không đe dọa loài người. Gọi AI là “con dao hai lưỡi”, Elon Musk cho rằng: “AI có khả năng làm cho cuộc sống tốt đẹp hơn và chúng ta sẽ có một kỷ nguyên sung túc. Nhưng nó cũng có khả năng phạm sai lầm và hủy diệt loài người. Khả năng này là rất nhỏ, nhưng không phải là con số 0. V́ vậy, tôi nghĩ chúng ta nên thực hiện mọi hành động có thể nghĩ ra, để giảm thiểu khả năng AI phạm sai lầm”. Tháng 5, Giám đốc OpenAI Sam Altman cũng đă kêu gọi Quốc hội Mỹ bắt đầu điều chỉnh công nghệ AI để ngăn chặn "tác hại đáng kể cho thế giới". Đồng t́nh với quan điểm này, 80 nhà khoa học về AI và gần 300 “nhân vật đáng chú ư khác” đă cùng kư vào một tuyên bố khẳng định các quốc gia phải đặt nhiệm vụ giảm thiểu nguy cơ rủi ro từ AI lên hàng đầu.
Ngày 1/6, tại Washington, Chủ tịch Microsoft Brad Smith tổ chức một sự kiện lớn tại Planet Word với một nhóm các nhà lập pháp Mỹ để đưa ra đề xuất về cách chính quyền Washington nên điều chỉnh sự phát triển quá nhanh của AI. Kế hoạch 5 điểm mới này của Microsoft tập trung vào an ninh mạng cho cơ sở hạ tầng quan trọng và chế độ cấp phép cho các mô h́nh AI. Cụ thể, Microsoft muốn Nhà Trắng thúc đẩy việc áp dụng rộng răi Khung quản lư rủi ro AI tự nguyện do Viện Tiêu chuẩn và Công nghệ Quốc gia phát hành vào đầu năm nay. Thêm vào đó, Microsoft cho rằng các nhà lập pháp cần thiết lập “hệ thống phanh an toàn” đối với các công cụ AI kiểm soát hoạt động của các cơ sở hạ tầng quan trọng như: lưới điện và hệ thống nước…
Đáng chú ư, Giám đốc điều hành của Microsoft không phải là ông lớn công nghệ duy nhất đang tham gia những nỗ lực định h́nh các quy định về AI. Giám đốc điều hành Google Sundar Pichai đă có mặt ở châu Âu hôm 31/5, tức 1 ngày sau khi đăng bài xă luận, nhấn mạnh việc xây dựng AI một cách có trách nhiệm là quan trọng nhất. Mục đích chuyến công tác châu Âu của ông Sundar Pichai là để t́m kiếm một hiệp ước AI tự nguyện với Ủy ban châu Âu khi khối này hoàn thiện đạo luật AI của ḿnh. Trước đó, Google cũng phát hành sách trắng, tŕnh bày chi tiết chương tŕnh nghị sự về chính sách AI của hăng và nói rằng họ được khuyến khích khi thấy các quốc gia đang bận rộn ban hành những quy định mới.
Giám đốc điều hành OpenAI Sam Altman, sau cuộc điều trần trước Ủy ban Tư pháp Thượng viện Mỹ về giám sát AI cũng đă tới châu Âu, tham gia một loạt cuộc thảo luận về quy định kiểm soát AI tại lục địa già. Khi nói chuyện với một nhóm nghị sĩ châu Âu, ông Sam Altman thừa nhận rằng, nỗi sợ lớn nhất của ông khi OpenAI phát triển AI là nguy cơ phát sinh mặt tiêu cực tiềm ẩn nếu không được quản lư đúng cách: "Nỗi sợ hăi tồi tệ nhất của tôi là chúng tôi gây ra hậu quả nghiêm trọng cho thế giới. V́ thế, việc kiểm soát lộ tŕnh phát triển của nó là cần thiết”.
Một trong những đề xuất của Giám đốc điều hành OpenAI tại phiên điều trần là Chính phủ Mỹ cần thiết lập một cơ quan mới có trách nhiệm cấp phép cho các mô h́nh AI lớn, đồng thời trao quyền cho cơ quan này thu hồi giấy phép của những công ty không tuân thủ các tiêu chuẩn của chính phủ. Tờ Foxbusiness th́ thông tin, Mỹ đă đưa ra kế hoạch trị giá 140 triệu USD để thành lập 7 viện nghiên cứu AI mới, yêu cầu các cơ quan chính phủ soạn thảo hướng dẫn sử dụng AI an toàn.
Ngay trong nội bộ nước Mỹ đă h́nh thành cuộc đua kiểm soát AI. Văn pḥng Chính sách Khoa học và Công nghệ của Nhà Trắng đang hoàn thiện một “Chiến lược AI quốc gia” mới. Theo kế hoạch, chính quyền Washington sẽ lấy ư kiến người dân, lắng nghe những chia sẻ của họ về các trải nghiệm sử dụng các công nghệ tự động, qua đó theo dơi và điều chỉnh phù hợp việc kiểm soát công nghệ AI. Trong tháng 6, Tổng thống Joe Biden sẽ công bố các bước đánh giá công nghệ mới, bao gồm một lộ tŕnh cập nhật các khoản đầu tư liên bang vào lĩnh vực nghiên cứu AI, một bản khảo sát về rủi ro do AI gây ra cũng như một báo cáo mới của Bộ Giáo dục Mỹ về ảnh hưởng của AI trong lĩnh vực học tập, nghiên cứu và giảng dạy. Trong khi đó, lănh đạo phe đa số Thượng viện, ông Charles E.Schumer cũng bắt đầu quá tŕnh tạo ra các quy tắc AI mới tại Thượng viện.
Ngoài ra, chính phủ Mỹ cũng chú trọng cả chính sách hợp tác quốc tế về AI với việc tham gia các cuộc đối thoại với những đồng minh ở châu Âu để t́m kiếm sự đồng thuận về một bộ quy tắc ứng xử chung cho AI. Điểm lợi của việc này là châu Âu đang là khu vực tiên phong trong việc thiết lập quy định kiểm soát các công nghệ mới. Hồi giữa tháng 5 vừa qua, Ủy ban Thị trường nội khối và Ủy ban về quyền tự do dân sự thuộc Liên minh châu Âu (EU) đă thông qua hơn 3.000 điều chỉnh trong đạo luật AI của khối. Những thay đổi mới trong dự luật yêu cầu các đơn vị phát triển AI tiến hành việc đánh giá mức độ an toàn, có giải pháp quản lư dữ liệu và giảm thiểu rủi ro trước khi đưa sản phẩm ra thị trường.
Các công cụ AI cũng phải gửi thông báo lưu ư người dùng rằng sản phẩm của các công cụ này là do máy móc tạo ra, không phải con người. Việc sử dụng công nghệ xác thực sinh trắc học, đặc biệt là nhận diện khuôn mặt, sẽ bị cấm ở nơi công cộng, trừ trường hợp chống khủng bố. Bên cạnh đó, cảnh sát cũng bị cấm dùng AI để đánh giá khả năng phạm tội của một người dựa trên hồ sơ tiền án. Dự kiến, vào giữa tháng 6, Nghị viện châu Âu sẽ tiến hành biểu quyết thông qua dự thảo luật này. Nếu sớm được thông qua, đạo luật AI sẽ được ban hành vào cuối năm 2023 và có hiệu lực sớm nhất là vào cuối năm 2025.
Cùng chung lo ngại về kiểm soát AI, hồi tháng 4, Trung Quốc cũng đă công bố dự thảo biện pháp quản lư các dịch vụ AI. Cơ quan quản lư không gian mạng Trung Quốc (CAC) khẳng định, Bắc Kinh ủng hộ đổi mới và ứng dụng AI, đồng thời khuyến khích sử dụng phần mềm, công cụ và tài nguyên dữ liệu an toàn và đáng tin cậy. Nhưng, nội dung do AI tạo ra phải phù hợp với các giá trị xă hội chủ nghĩa cốt lơi của đất nước; các nhà cung cấp sẽ chịu trách nhiệm về tính hợp pháp của dữ liệu được sử dụng để đào tạo các sản phẩm AI và sẽ bị phạt tiền, đ́nh chỉ dịch vụ hoặc thậm chí đối mặt với các cuộc điều tra h́nh sự nếu không tuân thủ các quy tắc…
Hiện công nghệ AI cũng đang đối mặt sự cứng rắn của nhiều chính phủ khác như Australia, Canada, Nhật Bản... Hôm 1/6, Australia cho biết đă lên kế hoạch cho những điều chỉnh về công nghệ AI, bao gồm lệnh cấm tiềm năng đối với deepfakes và nội dung giả trông giống thực, trong bối cảnh lo ngại công nghệ này có thể bị lạm dụng bởi những kẻ xấu. Nhật Bản, với tư cách là Chủ tịch luân phiên của G7 đang nỗ lực thể hiện rơ vai tṛ lănh đạo trong việc thúc đẩy nhận thức chung và thiết lập các quy tắc về sử dụng trí tuệ nhân tạo.
Giấc mơ hay ác mộng?
Trong cuộc nói chuyện gần đây trên tờ The New York Times, Tiến sĩ Geoffrey Hinton - người đă dành cả sự nghiệp của ḿnh để nghiên cứu việc sử dụng công nghệ AI và nhận được Giải thưởng Turing vào năm 2018 thú nhận, “tiến bộ đạt được trong công nghệ AI trong 5 năm qua là đáng sợ”. C̣n triệu phú đầu tư nổi tiếng Scott Galloway – người đă sáng lập 9 công ty lớn đồng thời là Giáo sư tại Khoa Kinh doanh Stern thuộc Đại học New York, từng lọt vào danh sách 50 Giáo sư kinh doanh xuất sắc thế giới của trang thông tin Poets & Quants năm 2012, khẳng định, AI đang khiến thế hệ trẻ cô đơn và chán nản hơn.
Báo cáo từ Diễn đàn Kinh tế thế giới trong tháng 5/2023 đă cảnh báo, 83 triệu việc làm sẽ biến mất vào năm 2027 do sự phát triển của công nghệ AI; đồng thời 69 triệu việc làm mới sẽ được tạo ra nhờ sự xuất hiện của công nghệ AI. C̣n Ngân hàng đầu tư Goldman Sachs cho rằng, AI là mối đe dọa đối với khoảng 300 triệu việc làm toàn thời gian trên toàn cầu, bao gồm 2/3 tổng số việc làm ở Mỹ và châu Âu…
Một tuyên bố được công bố trên trang web của Trung tâm An toàn AI - một tổ chức phi lợi nhuận có trụ sở tại San Francisco (Mỹ) cho biết, AI trong chiến tranh có thể “cực kỳ nguy hại'” v́ nó được sử dụng để phát triển vũ khí hóa học mới và tăng cường khả năng chiến đấu trên không. Lord Rees, nhà thiên văn học Hoàng gia của Vương quốc Anh nói: “Những thứ này có thể gặp trục trặc do “lỗi ẩn” và sự cố có thể khó sửa chữa. Những sự cố quy mô lớn của lưới điện, Internet… có thể dẫn đến sự đổ vỡ xă hội thảm khốc”. Chưa hết, thông tin sai lệch do AI tạo ra có thể được sử dụng để gây ảnh hưởng đến các cuộc bầu cử thông qua “các chiến dịch thông tin sai lệch tùy chỉnh trên quy mô lớn” và việc sử dụng rộng răi AI có thể gây nguy hiểm, khiến xă hội trở nên “hoàn toàn phụ thuộc vào máy móc, tương tự như kịch bản được miêu tả trong phim WALL-E”.
Đề xuất từ đại gia công nghệ và nỗi lo của các chính phủ
Tháng 3/2023, tỷ phú Elon Musk khi trả lời phỏng vấn hăng CNBC, đă kêu gọi các nhà khoa học tạm dừng phát triển AI để đảm bảo nó không đe dọa loài người. Gọi AI là “con dao hai lưỡi”, Elon Musk cho rằng: “AI có khả năng làm cho cuộc sống tốt đẹp hơn và chúng ta sẽ có một kỷ nguyên sung túc. Nhưng nó cũng có khả năng phạm sai lầm và hủy diệt loài người. Khả năng này là rất nhỏ, nhưng không phải là con số 0. V́ vậy, tôi nghĩ chúng ta nên thực hiện mọi hành động có thể nghĩ ra, để giảm thiểu khả năng AI phạm sai lầm”. Tháng 5, Giám đốc OpenAI Sam Altman cũng đă kêu gọi Quốc hội Mỹ bắt đầu điều chỉnh công nghệ AI để ngăn chặn "tác hại đáng kể cho thế giới". Đồng t́nh với quan điểm này, 80 nhà khoa học về AI và gần 300 “nhân vật đáng chú ư khác” đă cùng kư vào một tuyên bố khẳng định các quốc gia phải đặt nhiệm vụ giảm thiểu nguy cơ rủi ro từ AI lên hàng đầu.
Ngày 1/6, tại Washington, Chủ tịch Microsoft Brad Smith tổ chức một sự kiện lớn tại Planet Word với một nhóm các nhà lập pháp Mỹ để đưa ra đề xuất về cách chính quyền Washington nên điều chỉnh sự phát triển quá nhanh của AI. Kế hoạch 5 điểm mới này của Microsoft tập trung vào an ninh mạng cho cơ sở hạ tầng quan trọng và chế độ cấp phép cho các mô h́nh AI. Cụ thể, Microsoft muốn Nhà Trắng thúc đẩy việc áp dụng rộng răi Khung quản lư rủi ro AI tự nguyện do Viện Tiêu chuẩn và Công nghệ Quốc gia phát hành vào đầu năm nay. Thêm vào đó, Microsoft cho rằng các nhà lập pháp cần thiết lập “hệ thống phanh an toàn” đối với các công cụ AI kiểm soát hoạt động của các cơ sở hạ tầng quan trọng như: lưới điện và hệ thống nước…
Đáng chú ư, Giám đốc điều hành của Microsoft không phải là ông lớn công nghệ duy nhất đang tham gia những nỗ lực định h́nh các quy định về AI. Giám đốc điều hành Google Sundar Pichai đă có mặt ở châu Âu hôm 31/5, tức 1 ngày sau khi đăng bài xă luận, nhấn mạnh việc xây dựng AI một cách có trách nhiệm là quan trọng nhất. Mục đích chuyến công tác châu Âu của ông Sundar Pichai là để t́m kiếm một hiệp ước AI tự nguyện với Ủy ban châu Âu khi khối này hoàn thiện đạo luật AI của ḿnh. Trước đó, Google cũng phát hành sách trắng, tŕnh bày chi tiết chương tŕnh nghị sự về chính sách AI của hăng và nói rằng họ được khuyến khích khi thấy các quốc gia đang bận rộn ban hành những quy định mới.
Giám đốc điều hành OpenAI Sam Altman, sau cuộc điều trần trước Ủy ban Tư pháp Thượng viện Mỹ về giám sát AI cũng đă tới châu Âu, tham gia một loạt cuộc thảo luận về quy định kiểm soát AI tại lục địa già. Khi nói chuyện với một nhóm nghị sĩ châu Âu, ông Sam Altman thừa nhận rằng, nỗi sợ lớn nhất của ông khi OpenAI phát triển AI là nguy cơ phát sinh mặt tiêu cực tiềm ẩn nếu không được quản lư đúng cách: "Nỗi sợ hăi tồi tệ nhất của tôi là chúng tôi gây ra hậu quả nghiêm trọng cho thế giới. V́ thế, việc kiểm soát lộ tŕnh phát triển của nó là cần thiết”.
Một trong những đề xuất của Giám đốc điều hành OpenAI tại phiên điều trần là Chính phủ Mỹ cần thiết lập một cơ quan mới có trách nhiệm cấp phép cho các mô h́nh AI lớn, đồng thời trao quyền cho cơ quan này thu hồi giấy phép của những công ty không tuân thủ các tiêu chuẩn của chính phủ. Tờ Foxbusiness th́ thông tin, Mỹ đă đưa ra kế hoạch trị giá 140 triệu USD để thành lập 7 viện nghiên cứu AI mới, yêu cầu các cơ quan chính phủ soạn thảo hướng dẫn sử dụng AI an toàn.
Ngay trong nội bộ nước Mỹ đă h́nh thành cuộc đua kiểm soát AI. Văn pḥng Chính sách Khoa học và Công nghệ của Nhà Trắng đang hoàn thiện một “Chiến lược AI quốc gia” mới. Theo kế hoạch, chính quyền Washington sẽ lấy ư kiến người dân, lắng nghe những chia sẻ của họ về các trải nghiệm sử dụng các công nghệ tự động, qua đó theo dơi và điều chỉnh phù hợp việc kiểm soát công nghệ AI. Trong tháng 6, Tổng thống Joe Biden sẽ công bố các bước đánh giá công nghệ mới, bao gồm một lộ tŕnh cập nhật các khoản đầu tư liên bang vào lĩnh vực nghiên cứu AI, một bản khảo sát về rủi ro do AI gây ra cũng như một báo cáo mới của Bộ Giáo dục Mỹ về ảnh hưởng của AI trong lĩnh vực học tập, nghiên cứu và giảng dạy. Trong khi đó, lănh đạo phe đa số Thượng viện, ông Charles E.Schumer cũng bắt đầu quá tŕnh tạo ra các quy tắc AI mới tại Thượng viện.
Ngoài ra, chính phủ Mỹ cũng chú trọng cả chính sách hợp tác quốc tế về AI với việc tham gia các cuộc đối thoại với những đồng minh ở châu Âu để t́m kiếm sự đồng thuận về một bộ quy tắc ứng xử chung cho AI. Điểm lợi của việc này là châu Âu đang là khu vực tiên phong trong việc thiết lập quy định kiểm soát các công nghệ mới. Hồi giữa tháng 5 vừa qua, Ủy ban Thị trường nội khối và Ủy ban về quyền tự do dân sự thuộc Liên minh châu Âu (EU) đă thông qua hơn 3.000 điều chỉnh trong đạo luật AI của khối. Những thay đổi mới trong dự luật yêu cầu các đơn vị phát triển AI tiến hành việc đánh giá mức độ an toàn, có giải pháp quản lư dữ liệu và giảm thiểu rủi ro trước khi đưa sản phẩm ra thị trường.
Các công cụ AI cũng phải gửi thông báo lưu ư người dùng rằng sản phẩm của các công cụ này là do máy móc tạo ra, không phải con người. Việc sử dụng công nghệ xác thực sinh trắc học, đặc biệt là nhận diện khuôn mặt, sẽ bị cấm ở nơi công cộng, trừ trường hợp chống khủng bố. Bên cạnh đó, cảnh sát cũng bị cấm dùng AI để đánh giá khả năng phạm tội của một người dựa trên hồ sơ tiền án. Dự kiến, vào giữa tháng 6, Nghị viện châu Âu sẽ tiến hành biểu quyết thông qua dự thảo luật này. Nếu sớm được thông qua, đạo luật AI sẽ được ban hành vào cuối năm 2023 và có hiệu lực sớm nhất là vào cuối năm 2025.
Cùng chung lo ngại về kiểm soát AI, hồi tháng 4, Trung Quốc cũng đă công bố dự thảo biện pháp quản lư các dịch vụ AI. Cơ quan quản lư không gian mạng Trung Quốc (CAC) khẳng định, Bắc Kinh ủng hộ đổi mới và ứng dụng AI, đồng thời khuyến khích sử dụng phần mềm, công cụ và tài nguyên dữ liệu an toàn và đáng tin cậy. Nhưng, nội dung do AI tạo ra phải phù hợp với các giá trị xă hội chủ nghĩa cốt lơi của đất nước; các nhà cung cấp sẽ chịu trách nhiệm về tính hợp pháp của dữ liệu được sử dụng để đào tạo các sản phẩm AI và sẽ bị phạt tiền, đ́nh chỉ dịch vụ hoặc thậm chí đối mặt với các cuộc điều tra h́nh sự nếu không tuân thủ các quy tắc…
Hiện công nghệ AI cũng đang đối mặt sự cứng rắn của nhiều chính phủ khác như Australia, Canada, Nhật Bản... Hôm 1/6, Australia cho biết đă lên kế hoạch cho những điều chỉnh về công nghệ AI, bao gồm lệnh cấm tiềm năng đối với deepfakes và nội dung giả trông giống thực, trong bối cảnh lo ngại công nghệ này có thể bị lạm dụng bởi những kẻ xấu. Nhật Bản, với tư cách là Chủ tịch luân phiên của G7 đang nỗ lực thể hiện rơ vai tṛ lănh đạo trong việc thúc đẩy nhận thức chung và thiết lập các quy tắc về sử dụng trí tuệ nhân tạo.