PinaColada
05-29-2023, 09:24
Đánh mất sự nghiệp luật sư 30 năm v́ tin vào ChatGPT. Luật sư Steven Schwartz có kinh nghiệm hơn 30 năm trong nghề, nhưng sắp đánh mất cả sự nghiệp chỉ v́ một lần trót dại tin nhầm ChatGPT mà không kiểm chứng thông tin.
https://intermati.com/forum/attachment.php?attac hmentid=2225047&stc=1&d=1685352173
Sự trỗi dậy của AI đă làm dấy lên nhiều lo ngại về độ xác thực của thông tin. Ảnh: Reuters.
Một người đàn ông tên Roberto Mata đă đâm đơn kiện hăng hàng không Avianca của Mỹ v́ khiến anh bị thương ở đầu gối do xe đẩy hàng tông phải tại sân bay quốc tế Kennedy, New York.
Đơn kiện được nộp lên ṭa án liên bang Manhattan và phiên ṭa ban đầu diễn ra rất b́nh thường. Hăng bay đă thuê luật sư để biện hộ cho vụ kiện và cho rằng vụ án đă hết thời hạn khởi tố. Ngược lại, luật sư bên nguyên đơn là Steven Schwartz không đồng ư với lập luận của bên bị. Ông đă viện dẫn bằng cách tŕnh 10 trang tài liệu tổng hợp 8 phiên ṭa có trường hợp tương tự.
Tuy nhiên, vấn đề là không ai t́m ra phán quyết của ṭa án hay bất kỳ đoạn trích dẫn nào trong 10 trang tài liệu này.
Hóa ra, tài liệu tóm tắt những tiền án có liên quan đến vụ kiện đều là do ChatGPT tự tạo ra. Nhận ra sai lầm của ḿnh, vị luật sư nói rằng ông “trông mong vào sự độ lượng của ṭa án” và thừa nhận đă dùng AI - “một nguồn tin không đáng tin cậy” để t́m kiếm tài liệu luật pháp.
Sự nhúng tay của AI vào các văn bản pháp lư
Theo New York Times, vụ kiện của nguyên đơn Roberto Mata và bị đơn hăng hàng không Avianca bắt đầu từ chuyến bay số hiệu 670 đi từ El Salvador đến New York hôm 27/8/2019. Khi đó, một nhân viên sân bay đẩy xe chở hàng đă va phải Mata, khiến anh bị thương. Sau khi Mata nộp đơn kiện lên ṭa án, hăng hàng không kháng cáo và khẳng định vụ án đă hết hiệu lực.
Đến phiên ṭa tháng 3, luật sư phía Mata đă nói rằng bên nguyên vẫn có thể đâm đơn kiện và viện dẫn bằng chứng bằng nhiều phán quyết các vụ kiện trước đó có liên quan. Ngay sau đó, luật sư của hăng bay đă phản pháo rằng họ không thể t́m ra các vụ án được đề cập trong biên bản tài liệu tóm tắt của nguyên đơn.
“Chúng tôi không thể xác định thời điểm, địa điểm xảy ra những vụ án được đề cập và trích dẫn trong tài liệu hay bất kỳ vụ án nào tương tự”, luật sư cho biết.
Luật sư đă dùng ChatGPT trong quá tŕnh kiện tụng mà không có bước xác minh thông tin. Ảnh: TechSpot.
Thẩm phán Castel đă yêu cầu luật sư phía Mata cung cấp bản sao đầy đủ từ bản tóm tắt các vụ án trước. Luật sư đă nộp một bản trích yếu của 8 vụ bao gồm thông tin về ṭa án, thẩm phán xét xử vụ việc mă số và ngày diễn ra vụ án.
Tuy nhiên, luật sư hăng bay Avianca tiếp tục phản pháo bằng cách nói rằng họ không thể t́m thấy trích dẫn, mă số vụ án hay dữ liệu pháp lư của 6/8 vụ án dựa trên những thông tin này.
Do đó, luật sư Bart Banino của Avianca khẳng định những vụ án này hoàn toàn không có thật và nghi ngờ rằng có sự nhúng tay của chatbot AI.
Luật sư Schwartz sau đó thừa nhận đă tham vấn ư kiến của ChatGPT để “bổ trợ” cho công việc của ḿnh và trong quá tŕnh đó, ông đă mắc sai lầm khi tin tưởng, trích dẫn đến 6 vụ án không hề có thật trong bản tài liệu tham khảo của ḿnh.
Luật sư Schwartz nói với thẩm phán Kevin Castel của ṭa án liên bang Manhattan rằng ông không hề có ư định thêu dệt sự thật để biện hộ cho đơn kiện với hăng hàng không Avianca.
Đây cũng là lần đầu tiên ông sử dụng ChatGPT trong kiện tụng nên “không ư thức nguy cơ nó sẽ làm giả thông tin”. Ông c̣n hỏi lại ChatGPT để xác nhận liệu các vụ án mà nó đề cập trong tài liệu có thật hay không. Vào thời điểm đó, chatbot của OpenAI đă khẳng định là có.
“Những vụ án mà bạn đưa ra có phải là giả không?”, Schwartz hỏi. ChatGPT nhanh chóng trả lời: “Không những vụ án tôi đưa ra đều có thật và có thể t́m thấy trong kho dữ liệu pháp lư”.
Lần đầu tiên gặp phải t́nh trạng AI làm giả giấy tờ pháp lư
Nói tại phiên ṭa, luật sư Schwartz bày tỏ sự hối lỗi sâu sắc khi phụ thuộc vào ChatGPT. Ông cam kết sẽ không bao giờ tái phạm và bỏ qua khâu xác minh như vậy trong tương lai.
Về phần ṭa án, thẩm phán Castel nói rằng đây là lần đầu tiên ông gặp phải t́nh huống mà mọi tài liệu về phán quyết nộp lên đều sai sự thật, ngay cả các trích dẫn luật và các vụ án tham khảo đều là giả mạo. Ông yêu cầu tổ chức một phiên điều trần vào ngày 8/6 tới để đưa ra phán quyết chính thức.
ChatGPT khẳng định các vụ án đều có thật. Ảnh: Simon Willison.
Theo New York Times, khi trí tuệ nhân tạo đang dần xâm chiếm môi trường trực tuyến, không ít người nảy sinh lo ngại về một tương lai các máy tính sẽ thay thế không chỉ các tương tác xă hội mà c̣n lao động sức người. Đặc biệt trong lĩnh vực lao động trí thức, họ cho rằng những công việc hàng ngày của họ không được đề cao đúng mực mà chỉ quan tâm đến hiệu suất, lợi nhuận.
Giáo sư ngành đạo đức pháp luật Stephen Gillers tại New York University School of Law cho rằng đây là một vấn đề nổi cộm trong giới làm luật. Họ đă nhiều lần tranh căi về những lợi ích cũng như nguy cơ mà mà các phần mềm AI như ChatGPT mang lại.
VietBF@ sưu tập
https://intermati.com/forum/attachment.php?attac hmentid=2225047&stc=1&d=1685352173
Sự trỗi dậy của AI đă làm dấy lên nhiều lo ngại về độ xác thực của thông tin. Ảnh: Reuters.
Một người đàn ông tên Roberto Mata đă đâm đơn kiện hăng hàng không Avianca của Mỹ v́ khiến anh bị thương ở đầu gối do xe đẩy hàng tông phải tại sân bay quốc tế Kennedy, New York.
Đơn kiện được nộp lên ṭa án liên bang Manhattan và phiên ṭa ban đầu diễn ra rất b́nh thường. Hăng bay đă thuê luật sư để biện hộ cho vụ kiện và cho rằng vụ án đă hết thời hạn khởi tố. Ngược lại, luật sư bên nguyên đơn là Steven Schwartz không đồng ư với lập luận của bên bị. Ông đă viện dẫn bằng cách tŕnh 10 trang tài liệu tổng hợp 8 phiên ṭa có trường hợp tương tự.
Tuy nhiên, vấn đề là không ai t́m ra phán quyết của ṭa án hay bất kỳ đoạn trích dẫn nào trong 10 trang tài liệu này.
Hóa ra, tài liệu tóm tắt những tiền án có liên quan đến vụ kiện đều là do ChatGPT tự tạo ra. Nhận ra sai lầm của ḿnh, vị luật sư nói rằng ông “trông mong vào sự độ lượng của ṭa án” và thừa nhận đă dùng AI - “một nguồn tin không đáng tin cậy” để t́m kiếm tài liệu luật pháp.
Sự nhúng tay của AI vào các văn bản pháp lư
Theo New York Times, vụ kiện của nguyên đơn Roberto Mata và bị đơn hăng hàng không Avianca bắt đầu từ chuyến bay số hiệu 670 đi từ El Salvador đến New York hôm 27/8/2019. Khi đó, một nhân viên sân bay đẩy xe chở hàng đă va phải Mata, khiến anh bị thương. Sau khi Mata nộp đơn kiện lên ṭa án, hăng hàng không kháng cáo và khẳng định vụ án đă hết hiệu lực.
Đến phiên ṭa tháng 3, luật sư phía Mata đă nói rằng bên nguyên vẫn có thể đâm đơn kiện và viện dẫn bằng chứng bằng nhiều phán quyết các vụ kiện trước đó có liên quan. Ngay sau đó, luật sư của hăng bay đă phản pháo rằng họ không thể t́m ra các vụ án được đề cập trong biên bản tài liệu tóm tắt của nguyên đơn.
“Chúng tôi không thể xác định thời điểm, địa điểm xảy ra những vụ án được đề cập và trích dẫn trong tài liệu hay bất kỳ vụ án nào tương tự”, luật sư cho biết.
Luật sư đă dùng ChatGPT trong quá tŕnh kiện tụng mà không có bước xác minh thông tin. Ảnh: TechSpot.
Thẩm phán Castel đă yêu cầu luật sư phía Mata cung cấp bản sao đầy đủ từ bản tóm tắt các vụ án trước. Luật sư đă nộp một bản trích yếu của 8 vụ bao gồm thông tin về ṭa án, thẩm phán xét xử vụ việc mă số và ngày diễn ra vụ án.
Tuy nhiên, luật sư hăng bay Avianca tiếp tục phản pháo bằng cách nói rằng họ không thể t́m thấy trích dẫn, mă số vụ án hay dữ liệu pháp lư của 6/8 vụ án dựa trên những thông tin này.
Do đó, luật sư Bart Banino của Avianca khẳng định những vụ án này hoàn toàn không có thật và nghi ngờ rằng có sự nhúng tay của chatbot AI.
Luật sư Schwartz sau đó thừa nhận đă tham vấn ư kiến của ChatGPT để “bổ trợ” cho công việc của ḿnh và trong quá tŕnh đó, ông đă mắc sai lầm khi tin tưởng, trích dẫn đến 6 vụ án không hề có thật trong bản tài liệu tham khảo của ḿnh.
Luật sư Schwartz nói với thẩm phán Kevin Castel của ṭa án liên bang Manhattan rằng ông không hề có ư định thêu dệt sự thật để biện hộ cho đơn kiện với hăng hàng không Avianca.
Đây cũng là lần đầu tiên ông sử dụng ChatGPT trong kiện tụng nên “không ư thức nguy cơ nó sẽ làm giả thông tin”. Ông c̣n hỏi lại ChatGPT để xác nhận liệu các vụ án mà nó đề cập trong tài liệu có thật hay không. Vào thời điểm đó, chatbot của OpenAI đă khẳng định là có.
“Những vụ án mà bạn đưa ra có phải là giả không?”, Schwartz hỏi. ChatGPT nhanh chóng trả lời: “Không những vụ án tôi đưa ra đều có thật và có thể t́m thấy trong kho dữ liệu pháp lư”.
Lần đầu tiên gặp phải t́nh trạng AI làm giả giấy tờ pháp lư
Nói tại phiên ṭa, luật sư Schwartz bày tỏ sự hối lỗi sâu sắc khi phụ thuộc vào ChatGPT. Ông cam kết sẽ không bao giờ tái phạm và bỏ qua khâu xác minh như vậy trong tương lai.
Về phần ṭa án, thẩm phán Castel nói rằng đây là lần đầu tiên ông gặp phải t́nh huống mà mọi tài liệu về phán quyết nộp lên đều sai sự thật, ngay cả các trích dẫn luật và các vụ án tham khảo đều là giả mạo. Ông yêu cầu tổ chức một phiên điều trần vào ngày 8/6 tới để đưa ra phán quyết chính thức.
ChatGPT khẳng định các vụ án đều có thật. Ảnh: Simon Willison.
Theo New York Times, khi trí tuệ nhân tạo đang dần xâm chiếm môi trường trực tuyến, không ít người nảy sinh lo ngại về một tương lai các máy tính sẽ thay thế không chỉ các tương tác xă hội mà c̣n lao động sức người. Đặc biệt trong lĩnh vực lao động trí thức, họ cho rằng những công việc hàng ngày của họ không được đề cao đúng mực mà chỉ quan tâm đến hiệu suất, lợi nhuận.
Giáo sư ngành đạo đức pháp luật Stephen Gillers tại New York University School of Law cho rằng đây là một vấn đề nổi cộm trong giới làm luật. Họ đă nhiều lần tranh căi về những lợi ích cũng như nguy cơ mà mà các phần mềm AI như ChatGPT mang lại.
VietBF@ sưu tập