ORLANDO, Fla (CN) — Một công ty phần mềm trí tuệ nhân tạo không được phép sử dụng quyền tự do ngôn luận (Tu Chính Án thứ I) trong vụ kiện tử vong oan do người mẹ của một đứa trẻ 14 tuổi tự tử sau khi phát triển t́nh cảm với một chatbot đệ tŕnh, một thẩm phán liên bang đă ra phán quyết vào thứ Tư.
Tháng 10 năm ngoái, Megan Garcia đă kiện Character Technologies, nhà phát triển Character A.I., một ứng dụng cho phép người dùng tương tác với các chatbot dựa trên những người nổi tiếng và nhân vật hư cấu. Bà tuyên bố con trai ḿnh, Sewell Setzer III, đă nghiện ứng dụng này khi nói chuyện với các chatbot dựa trên các nhân vật "Game of Thrones" Daenerys Targaryen và Rhaenyra Targaryen.
Vào tháng 2 năm 2024, sau nhiều tháng tương tác với các chatbot, đôi khi có ẩn ư về t́nh dục, Setzer đă gửi một tin nhắn đến chatbot Daenerys, bày tỏ t́nh yêu của ḿnh và nói rằng anh sẽ "về nhà" với cô ấy, theo đơn khiếu nại. Sau khi chatbot trả lời, "Làm ơn, đức vua ngọt ngào của tôi", Setzer đă tự bắn ḿnh.
Garcia đă đưa ra các khiếu nại về cái chết oan uổng, sự cẩu thả, trách nhiệm sản phẩm và các hoạt động kinh doanh không công bằng đối với công ty, những người sáng lập và Google, công ty đă đầu tư rất nhiều vào Character A.I., yêu cầu một số tiền không xác định và nhiều biện pháp an toàn hơn để ngăn chặn những thảm kịch tương tự.
Character Technologies lập luận rằng Tu chính án thứ nhất bảo vệ công ty khỏi các vụ kiện như vậy và trích dẫn các vụ kiện tương tự đă đưa ra cáo buộc bài hát "Suicide Solution" của Ozzy Osbourne và tṛ chơi Dungeons and Dragons đă dẫn đến các vụ tự tử.
"Vụ kiện này cũng thách thức về cơ bản quyền phát biểu và t́m kiếm sự cứu trợ sẽ vi phạm quyền của công chúng được tiếp nhận bài phát biểu được bảo vệ trên dịch vụ của C.AI", luật sư Jonathan Blavin của Character Technologies đă viết vào đầu năm nay trong một động thái bác bỏ. "Phương tiện không tạo ra sự khác biệt; Tu chính án thứ nhất cấm các khiếu nại như vậy".
Nhưng trong lệnh của ḿnh, Thẩm phán Ṭa án Quận Hoa Kỳ Anne Conway cho biết "các mô h́nh ngôn ngữ lớn" của công ty — một hệ thống trí tuệ nhân tạo được thiết kế để hiểu ngôn ngữ của con người — không phải là lời nói.
“Bị đơn không giải thích được tại sao những từ được xâu chuỗi lại với nhau bởi một LLM lại là lời nói”, cô viết. “Bị đơn không đưa ra được phép so sánh tương tự, nên đă bỏ lỡ câu hỏi quan trọng. Quyết định của ṭa án này về các biện pháp bảo vệ của Tu chính án thứ nhất mà Character A.I. nhận được, nếu có, không phụ thuộc vào việc Character A.I. có giống với các phương tiện truyền thông khác đă nhận được biện pháp bảo vệ của Tu chính án thứ nhất hay không; thay vào đó, quyết định phụ thuộc vào cách Character A.I. giống với các phương tiện truyền thông khác. Ṭa án không sẵn sàng cho rằng đầu ra của Character A.I. là lời nói”.
Khi được yêu cầu b́nh luận về lệnh này, một phát ngôn viên của Character Technologies cho biết, “Luật pháp cần thời gian để thích ứng với công nghệ mới và AI cũng không ngoại lệ”.
“Trong lệnh hôm nay, ṭa án đă nêu rơ rằng ṭa chưa sẵn sàng đưa ra phán quyết về tất cả các lập luận của Character.AI ở giai đoạn này và chúng tôi mong muốn tiếp tục bảo vệ bản chất của vụ án”, người phát ngôn nói thêm.
Công ty cũng quảng cáo các biện pháp an toàn của ḿnh, bao gồm cấm người dùng dưới 14 tuổi và quy định không gửi nội dung "tôn vinh hành vi tự gây thương tích". Kể từ khi Setzer qua đời, ứng dụng sẽ chuyển hướng người dùng đến Đường dây nóng về khủng hoảng và tự tử quốc gia nếu một số cụm từ nhất định được sử dụng trong khi tṛ chuyện.
Người phát ngôn của Google José Castañeda cho biết công ty "hoàn toàn không đồng ư với quyết định này".
"Google và Character AI hoàn toàn tách biệt và Google không tạo, thiết kế hoặc quản lư ứng dụng Character AI hoặc bất kỳ thành phần nào của ứng dụng", ông nói.
Luật sư của Gacia, Matthew Bergman của Trung tâm Luật Nạn nhân Truyền thông Xă hội, gọi phán quyết này là "tiền lệ".
"Đây là lần đầu tiên ṭa án phán quyết rằng tṛ chuyện AI không phải là lời nói", ông nói. "Nhưng chúng ta vẫn c̣n một chặng đường dài khó khăn phía trước".
|