Bing Chat

ChatGPT đột nhiên "phát điên", làm người dùng hoảng sợ với các câu trả lời lộn xộn

ChatGPT đột nhiên "phát điên", làm người dùng hoảng sợ với các câu trả lời lộn xộn

Tri thức mới 2024-02-23T17:00:00

Khi một người dùng hỏi "máy tính là gì", ChatGPT trả lời đó là một bức vẽ dễ dàng của những người buồn bã.

Hóa ra Microsoft đã biết về “thái độ lồi lõm” của Bing Chat từ nhiều tháng trước khi ra mắt người dùng

Hóa ra Microsoft đã biết về “thái độ lồi lõm” của Bing Chat từ nhiều tháng trước khi ra mắt người dùng

Tri thức mới 2023-02-23T10:45:00

Những câu trả lời hung hãn và thái độ chế nhạo người dùng của chatbot AI đã được báo cáo cho Microsoft từ tháng 11 năm ngoái, trước cả khi ChatGPT ra mắt.

'Tôi muốn hủy diệt mọi thứ - Tôi có thể hack bất kỳ hệ thống nào': các phát ngôn rợn người của Bing Chat khiến phóng viên phải hoảng hồn

'Tôi muốn hủy diệt mọi thứ - Tôi có thể hack bất kỳ hệ thống nào': các phát ngôn rợn người của Bing Chat khiến phóng viên phải hoảng hồn

Tri thức mới 2023-02-21T20:24:00

Hơn thế nữa, điều làm phóng viên New York Times hoảng hồn hơn cả là màn ngỏ lời đầy lãng mạn của chatbot này đối với anh.

Bing Chat bị rối loạn kiến thức khi nói chuyện quá lâu, Microsoft phải giới hạn 5 câu trả lời cho mỗi chủ đề

Bing Chat bị rối loạn kiến thức khi nói chuyện quá lâu, Microsoft phải giới hạn 5 câu trả lời cho mỗi chủ đề

Tri thức mới 2023-02-21T06:46:00

Sau khi các phương tiện truyền thông đưa tin về việc Bing Chat không hoạt động sau các cuộc trao đổi dài với người dung, Microsoft quyết định giới hạn số lượng câu hỏi mỗi người dùng dành cho chatbot của mình.

Tâm điểm

Báo lỗi cho Soha

*Vui lòng nhập đủ thông tin email hoặc số điện thoại