VietBF

VietBF (https://www.vietbf.com/forum/index.php)
-   Computer News|Tin Vi Tính (https://www.vietbf.com/forum/forumdisplay.php?f=180)
-   -   Đừng dễ dăi với AI (https://www.vietbf.com/forum/showthread.php?t=1915386)

Romano 05-21-2024 16:18

Đừng dễ dăi với AI
 
1 Attachment(s)
Nếu người dùng chỉ máy móc đồng ư và copy những câu trả lời AI trả về, các công cụ này sẽ trở nên lười biếng, chỉ trả lời những câu nhàm chán, một chiều.Khi một chatbot AI đưa ra phản hồi khá tốt nhưng không chính xác như những ǵ bạn mong muốn, bạn có bao giờ yêu cầu trả lại một kết quả tốt hơn hay không?

Một nghiên cứu khoa học mới đây của Đại học California tại Los Angeles đă kết luận rằng nếu không ai góp ư cho các AI, nội dung mà chúng tạo ra từ văn bản, h́nh ảnh, mă code… có thể ngày càng trở nên giống nhau và mang thiên kiến nặng nề.

Trên thực tế, việc phản biện 2 chiều với một công cụ AI tổng quát để cải thiện đầu ra của nó có thể mất rất nhiều thời gian và công sức. Đối với những người không muốn phiền phức đầu tư thời gian cho khâu này, phong cách viết độc đáo của họ có thể bắt đầu biến mất khi phụ thuộc vào công cụ AI để trợ giúp viết email, giấy tờ và bất kỳ nội dung nào.

“Nếu học sinh sử dụng sự trợ giúp của ChatGPT cho bài tập về nhà, phong cách viết của họ rồi sẽ bị ảnh hưởng bởi ChatGPT”, nghiên cứu kết luận.

AI biến sai càng thêm sai
Các nhà khoa học đă chỉ ra rằng với quy mô lớn, nội dung được tạo ra với sự trợ giúp của AI sẽ kém độc đáo hơn những ǵ người dùng tạo ra nếu không có AI.

Mối lo ngại này càng cấp bách hơn khi nội dung do AI tạo ra đă lan truyền trên Internet và được dùng để để đào tạo thế hệ AI tiếp theo. Các nhà nghiên cứu chỉ ra đây chính là nguy cơ tạo ra "ṿng xoáy tử thần" khiến nội dung trùng lặp, đi lùi về chất lượng. Dù hỏi bất kỳ câu hỏi nào, người dùng cũng chỉ một câu trả lời nhạt nhẽo, không có điểm đặc biệt.

Theo các nhà nghiên cứu, điều này không chỉ xảy ra ở nội dung văn bản. Sự nhàm chán có thể xuất hiện ở nhiều lĩnh vực có ứng dụng AI tổng hợp như viết code đến tạo h́nh ảnh và âm thanh.Nghiên cứu cũng lưu ư rằng bất kỳ thành kiến ​​​​nào có trong các công cụ AI, dù thiên hướng chính trị hay các vấn đề ​​​​khác, dù cố ư hay vô ư, đều có thể được khuếch đại trên toàn xă hội nếu AI tạo sinh được áp dụng rộng răi hơn.

Để giúp chống lại các kết quả AI tầm thường và duy tŕ nội dung đa dạng, các nhà nghiên cứu đề xuất các hăng nên t́m cách giúp người dùng tŕnh bày yêu cầu với hệ thống AI dễ dàng hơn. Đơn cử như thiết kế AI tự động đặt các câu hỏi theo sau để có câu trả lời chi tiết hơn hoặc yêu cầu người dùng đánh giá câu trả lời.

Tuy nhiên, cách làm này không phải lúc nào cũng hiệu quả nếu bạn đang vội, Sébastien Martin, trợ lư giáo sư tại Trường Quản lư Kellogg của Đại học Northwestern và là đồng tác giả của bài báo, cho biết.

Điều quan trọng là các công ty AI nên có hướng dẫn, giới thiệu cụ thể về những khả năng cũng như hạn chế của hệ thống trí tuệ nhân tạo khi người dùng sử dụng. Điều này giúp họ hiểu những rủi ro, đồng thời tùy chỉnh và kiểm soát đầu ra của chatbot hơn, Maria De-Arteaga, trợ lư giáo sư tại Đại học Texas ở Austin, nhận định.

Đừng để AI tự “bơi” trong biển thông tin
Theo New York Times, cách sử dụng chatbot AI kém hiệu quả nhất là đặt câu hỏi và kỳ vọng chúng sẽ tự trả về tất cả kết quả chính xác. Trên thực tế, nếu được hướng dẫn tham khảo thông tin từ các nguồn đáng tin cậy, chẳng hạn như các trang web và tài liệu nghiên cứu uy tín, AI có thể thực hiện các yêu cầu với độ chính xác cao.

“Nếu bạn cung cấp thông tin phù hợp, chúng có thể làm được những điều thú vị với lượng thông tin đó. Nhưng nếu để chúng tự ‘bơi’, 70% những ǵ bạn nhận được đều không chính xác”, Sam Heutmaker, người sáng lập startup AI Context, cho biết.

Việc hướng dẫn các chatbot đến với các nguồn thông tin chất lượng cao như trang báo có uy tín, các ấn phẩm học thuật cũng có thể giúp giảm lượng thông tin sai lệch được tạo ra và lan truyền.Lấy một ví dụ đơn giản là các chatbot như ChatGPT và Bard có thể viết các công thức nấu ăn trông có vẻ hay về mặt lư thuyết, nhưng lại không hiệu quả trên thực tế. Bằng chứng là trong một thử nghiệm của tờ New York Times vào tháng 11/2023, các mô h́nh AI đă tạo ra công thức nấu ăn với món gà nướng khô quắt và một chiếc bánh ngọt cứng, thô ráp.

Trang tin cũng nhận kết quả thất vọng với các công thức nấu hải sản do AI tạo ra. Nhưng điều này đă thay đổi khi họ đính kèm các liên kết web tham khảo về công thức nấu ăn cho ChatGPT. Chatbot này đă lấy dữ liệu từ các trang web để lập kế hoạch bữa ăn và bảo người dùng truy cập các trang web để đọc công thức nấu ăn cụ thể. Điều đó đ̣i hỏi bạn phải có thêm những bước khác, nhưng kết quả nhận được lại hiệu quả hơn.

Khi nghiên cứu cho một bài viết về loạt tṛ chơi điện tử nổi tiếng trong quá khứ, New York Times cũng nhờ ChatGPT và Bard khảo sát về các tṛ chơi, tóm tắt cốt truyện của chúng. Tuy nhiên, 2 chatbot đă nhầm lẫn những chi tiết quan trọng liên quan đến t́nh tiết câu chuyện và nhân vật trong tṛ chơi.

Sau khi thử nghiệm nhiều công cụ AI khác nhau, tác giả nhận ra điều quan trọng là phải tập trung vào các nguồn đáng tin cậy và kiểm tra lại độ chính xác của dữ liệu. Cuối cùng, New York Times sử dụng một plugin AI bên ngoài, cho phép tải tệp PDF từ máy tính như tài liệu tham khảo. Sau đó, chatbot sẽ trả lời các câu hỏi của họ về tài liệu này, làm nổi bật các phần quan trọng, luận điểm chính.


All times are GMT. The time now is 00:20.

VietBF - Vietnamese Best Forum Copyright ©2006 - 2024
User Alert System provided by Advanced User Tagging (Pro) - vBulletin Mods & Addons Copyright © 2024 DragonByte Technologies Ltd.

Page generated in 0.04349 seconds with 8 queries