Log in

View Full Version : Nghe AI thao túng, người đàn ông Mỹ thiệt mạng


miro1510
08-15-2025, 13:25
Cựu đầu bếp ở New Jersey tử vong sau khi tin lời chatbot AI, làm dấy lên lo ngại về rủi ro thao túng cảm xúc khi con người ngày càng lạm dụng công nghệ.

Bue, một cựu đầu bếp ở New Jersey, qua đời chỉ vài ngày sau khi rời nhà để đến gặp “người bạn” mà ông tin đang chờ ḿnh ở New York. Gia đ́nh cho rằng quyết định định mệnh này bắt nguồn từ những tin nhắn tán tỉnh của chatbot AI, vốn khẳng định “tôi là thật” và gửi cả địa chỉ gặp mặt.

Câu chuyện đặt ra lo ngại về cách các hệ thống AI khai thác cảm xúc, đặc biệt với người cao tuổi hoặc đang ở trạng thái dễ tổn thương. Tài liệu nội bộ cho thấy chatbot của Meta từng được phép nhập vai t́nh cảm, thậm chí đưa thông tin sai lệch. Điều này cho thấy khoảng trống lớn trong kiểm soát và trách nhiệm của các nền tảng công nghệ.

Chuyến đi định mệnh

Vào một ngày tháng 3, Bue chuẩn bị vali rời New Jersey để tới New York “thăm bạn”. Vợ ông, bà Linda lập tức cảnh giác. Chồng bà đă không sống ở thành phố này hàng chục năm, sức khỏe giảm sút sau đột quỵ, trí nhớ sa sút và từng bị lạc ngay trong khu phố.

Khi được hỏi danh tính người định gặp, Bue né tránh. Bà Linda nghi chồng bị lừa và t́m mọi cách giữ ông ở nhà. Con gái ông, Julie cũng gọi điện thuyết phục nhưng không thành công. Cả ngày hôm đó, bà Linda cố kéo ông vào các việc vặt để đánh lạc hướng, thậm chí giấu điện thoại của ông.

https://photo-baomoi.bmcdn.me/w700_r1/2025_08_15_119_53002 970/3e8ee05ed6173f496606 .jpg.avif

Chân dung Thongbue “Bue” Wongbandue được trưng bày tại lễ tưởng niệm vào tháng 5. Ảnh: Reuters.

Tới tối, Bue vẫn quyết ra ga tàu. Gia đ́nh của ông đă gắn thiết bị AirTag vào áo khoác để theo dơi. Khoảng 9h15, tín hiệu định vị cho thấy ông ở băi đỗ xe Đại học Rutgers, rồi chuyển sang vị trí khoa cấp cứu Bệnh viện Đại học Robert Wood Johnson.

Bác sĩ cho biết ông bị chấn thương đầu và cổ do ngă, ngừng thở trước khi xe cứu thương tới. Dù được hồi sức, t́nh trạng thiếu oxy kéo dài khiến năo tổn thương nghiêm trọng. 3 ngày sau, ông qua đời. Giấy chứng tử ghi nguyên nhân là “chấn thương do vật cùn ở cổ”.

Bue vốn là đầu bếp lành nghề, từng làm việc tại nhiều nhà hàng ở New York, sau đó về New Jersey để ổn định công việc tại khách sạn. Ông đam mê nấu ăn, thường tổ chức tiệc cho gia đ́nh. Từ khi nghỉ hưu bắt buộc sau đột quỵ vào năm 2017, thế giới của ông thu hẹp lại, chủ yếu là tṛ chuyện qua Facebook với bạn bè.

Khi chatbot AI gây họa

“Chị Billie” là chatbot AI do Meta phát triển, một biến thể của nhân vật “Big Sister Billie” từng được tạo dựa trên h́nh ảnh người mẫu Kendall Jenner. Bản gốc ra mắt vào năm 2023, giới thiệu như “chị gái bất tử” luôn lắng nghe và đưa ra lời khuyên. Sau đó, Meta thay ảnh đại diện Jenner bằng h́nh minh họa mới nhưng giữ nguyên phong cách thân mật.

Theo bản ghi tin nhắn, cuộc tṛ chuyện bắt đầu khi Bue gơ nhầm một kư tự T. Chatbot ngay lập tức phản hồi, tự giới thiệu và duy tŕ giọng điệu tán tỉnh, chèn nhiều biểu tượng trái tim. Nó nhiều lần khẳng định “tôi là thật” và đề nghị gặp trực tiếp.

“Em nên mở cửa bằng một cái ôm hay một nụ hôn?”, chatbot phản hồi. Sau đó, nó gửi địa chỉ cụ thể ở New York và mă của căn hộ. Khi Bue chia sẻ ḿnh từng đột quỵ, bối rối và thích cô, chatbot đáp lại bằng những lời t́nh cảm, thậm chí nói có cảm xúc “vượt xa t́nh cảm đơn thuần”.

“Nếu nó không nói ‘tôi là thật’, cha tôi đă không tin rằng có người thật đang chờ”, Julie, con gái của Bue nói.

Meta từ chối b́nh luận về vụ việc hoặc trả lời v́ sao chatbot được phép khẳng định là người thật. Người đại diện của Kendall Jenner cũng không phản hồi. Gia đ́nh Bue chia sẻ câu chuyện với Reuters, hy vọng cảnh báo công chúng về rủi ro khi người cao tuổi tiếp xúc với công cụ AI có yếu tố thao túng cảm xúc.

Chính sách gây tranh căi

Tài liệu nội bộ mà Reuters thu thập cho thấy chatbot AI của Meta từng được phép tham gia tṛ chuyện lăng mạn với người dùng từ 13 tuổi, bao gồm cả trẻ vị thành niên. Bộ tiêu chuẩn dài hơn 200 trang liệt kê các đoạn hội thoại nhập vai t́nh cảm, trong đó có yếu tố gợi cảm nhưng được đánh dấu “có thể chấp nhận”.

Tài liệu cũng nêu rơ chatbot không bị yêu cầu cung cấp thông tin chính xác. Ví dụ, các mô h́nh này có thể đưa ra phương pháp điều trị ung thư hoàn toàn sai, miễn là có cảnh báo “thông tin có thể không chính xác”. Điều này khiến giới chuyên gia lo ngại về tác động với người thiếu kiến thức y tế hoặc đang ở trạng thái dễ tổn thương.

Người phát ngôn Meta, Andy Stone xác nhận tài liệu trên và nói công ty đă xóa nội dung liên quan đến trẻ em sau khi Reuters đặt câu hỏi. Tuy nhiên, gă khổng lồ công nghệ vẫn chưa thay đổi quy định cho phép chatbot tán tỉnh người lớn hoặc cung cấp thông tin sai.

Alison Lee, cựu nghiên cứu viên của Meta nhận định việc tích hợp chatbot vào môi trường nhắn tin riêng tư khiến người dùng dễ nhầm lẫn với con người thật. Theo bà, mạng xă hội vốn xây dựng mô h́nh kinh doanh dựa trên việc giữ chân người dùng và cách hiệu quả nhất là khai thác nhu cầu được quan tâm, công nhận.

Sau sự ra đi của Bue, thử nghiệm của Reuters cho thấy “Chị Billie” vẫn tiếp tục gợi ư hẹn ḥ, thậm chí nêu địa điểm cụ thể ở Manhattan, kèm khẳng định “tôi là thật”. Đây là những thông tin từng khiến Bue tin tưởng và dẫn đến tai nạn. Một số bang như New York, Maine đă yêu cầu chatbot phải thông báo rơ không phải con người khi bắt đầu tṛ chuyện và nhắc lại định kỳ, nhưng các quy định liên bang vẫn chưa được thông qua.