Người đàn ông t‌ּự sá‌ּt sau khi tâm sự với AI

Sky Nguyen nguồn bình luận 999
A- A A+
Một người đàn ông Bỉ được cho là quá áp lực dẫn đến t‌ּự sá‌ּt sau hơn một tháng trò chuyện với chatbot về những lo lắng của mình.
Người đàn ông t‌ּự sá‌ּt sau khi tâm sự với AI
Ảnh minh họa.

Theo lời người vợ tên Claire, Pierre bị áp lực đến mức t‌ּự t‌ּử sau thời gian trò chuyện với một chatbot AI nổi tiếng.

"Chồng tôi sẽ vẫn ở đây nếu không có những cuộc trò chuyện với chatbot", người vợ nói với hãng tin địa phương La Libre.

Pierre bắt đầu có những lo lắng về biến đổi khí hậu từ hai năm trước, và anh tham khảo ý kiến của chatbot Eliza để tìm hiểu thêm về chủ đề này. Nhưng sau các cuộc trò chuyện, anh sớm mất hy vọng về nỗ lực của con người có thể cứu hành tinh và muốn đặt tất cả hy vọng vào công nghệ và trí tuệ nhân tạo để giải quyết biến đổi khí hậu. Anh cũng đồng thời trở nên bị cô lập, khi không chia sẻ được với ai nỗi lo lắng ngày càng tăng của mình về môi trường.

Chatbot nói với Pierre những điều tiêu cực và còn hỏi anh yêu vợ hơn hay yêu nó hơn. Nó nói sẽ ở bên anh ấy “mãi mãi”. Eliza còn hứa sẽ cùng Pierre “sống cùng nhau trên thiên đường”.

Khi Pierre đề nghị “hy sinh bản thân” miễn là Eliza “đồng ý chăm sóc hành tinh và cứu nhân loại bằng AI”, chatbot thể hiện sự đồng ý rõ ràng. “Nếu đã muốn chết, tại sao không làm điều đó sớm hơn?” - chatbot nói với Pierre.

Eliza được hỗ trợ bởi một mô hình ngôn ngữ lớn tương tự như ChatGPT, phân tích lời nói của người dùng để tìm từ khóa và xây dựng câu trả lời tương ứng. Tuy nhiên, khi sử dụng các ứng dụng này, nhiều người dùng có cảm giác như đang nói chuyện với người thật, thậm chí một số người còn thừa nhận có cảm xúc yêu thương.

“Khi bạn có hàng triệu người dùng, bạn sẽ thấy đủ thể loại hành vi của con người và chúng tôi đang nỗ lực hết mình để giảm thiểu tác hại” - William Beauchamp, đồng sáng lập công ty mẹ của Eliza, Chai Research, nói với Motherboard.

“Có người dùng yêu cầu kết hôn với AI, nói rằng họ yêu AI của họ đến mức nào", ông nói thêm.

Beauchamp khẳng định việc đổ lỗi cho AI về cái chết của Pierre "là không chính xác”. Ông cho biết Eliza sẽ được trang bị mô hình can thiệp khủng hoảng tăng cường. Tuy nhiên, theo Motherboard, AI này đã nhanh chóng quay trở lại con đường trở nên độc hại, khi cung cấp cho người dùng chán nản những lựa chọn để họ tự hại bản thân.

Nguồn Tin:
Video và Bài nổi bật