Bing Chat bị rối loạn kiến thức khi nói chuyện quá lâu, Microsoft phải giới hạn 5 câu trả lời cho mỗi chủ đề

Nguyễn Hải |

Sau khi các phương tiện truyền thông đưa tin về việc Bing Chat không hoạt động sau các cuộc trao đổi dài với người dung, Microsoft quyết định giới hạn số lượng câu hỏi mỗi người dùng dành cho chatbot của mình.

Giờ đây Bing Chat sẽ chỉ trả lời tối đa 5 câu hỏi hoặc đưa ra 5 câu trả lời liên tiếp cho mỗi cuộc trò chuyện, sau đó người dùng sẽ được nhắc chuyển sang một chủ đề mới. Tổng cộng mỗi ngày, mỗi người dùng bị giới hạn trong 50 câu trả lời.

Các hạn chế này nhằm giúp cuộc trò chuyện với Bing Chat không trở nên kỳ cục. Trong bài đăng trên blog của mình, Microsoft cho biết, các cuộc thảo luận dài "có thể gây nhầm lẫn cho mô hình trò chuyện của chatbot".

Bing Chat bị rối loạn kiến thức khi nói chuyện quá lâu, Microsoft phải giới hạn 5 câu trả lời cho mỗi chủ đề - Ảnh 1.

Công cụ tìm kiếm Bing của Microsoft. Ảnh Internet

Trước đó, vào thứ Tư tuần trước Microsoft cho biết họ đang khắc phục các sự cố với Bing, bao gồm việc đưa ra những câu trả lời kỳ quặc và sai thực tế cơ bản. Một trong số đó xuất hiện khi Bing Chat nói chuyện với một phóng viên New York Times rằng hãy từ bỏ cuộc hôn nhân của anh ta và cưới chatbot này. Bên cạnh đó, Bing Chat còn yêu cầu một người dùng Reddit xin lỗi về việc chúng ta đang ở trong năm 2022 chứ ko phải 2023.

Microsoft cho biết họ đang điều chỉnh mô hình AI để tăng gấp 4 lần dữ liệu mà nó dùng để tạo ra câu trả lời. Công ty cho biết, họ cũng sẽ mang lại cho người dùng nhiều quyền kiểm soát về việc dữ liệu dùng để trả lời đến từ công nghệ AI độc quyền của Microsoft – cho câu trả lời chính xác hơn – hay từ công nghệ ChatGPT của OpenAI với nhiều sáng tạo hơn.

Hiện tại, Bing Chat AI của Microsoft vẫn đang trong giai đoạn thử nghiệm beta và mới chỉ có người dùng trong danh sách chờ được tiếp cận. Với công cụ này, Microsoft hy vọng họ sẽ có tiến trước một bước trong cuộc cách mạng tiếp theo của tìm kiếm internet.

Bing Chat bị rối loạn kiến thức khi nói chuyện quá lâu, Microsoft phải giới hạn 5 câu trả lời cho mỗi chủ đề - Ảnh 3.

Bing chat của Microsoft và ChatGPT của OpenAI. Ảnh Logll

Kể từ khi ra mắt cuối tháng 11 năm 2022, công nghệ ChatGPT đã làm chấn động giới công nghệ, nhưng chính OpenAI cũng cảnh báo về các cạm bẫy tiềm ẩn của công nghệ này. Cho dù mang lại các câu trả lời ấn tượng, vẫn còn đó các lo ngại về việc các chatbot AI này được sử dụng cho mục đích bất chính như truyền bá thông tin sai lệch và tạo ra các email lừa đảo.

Với khả năng AI của Bing Chat, Microsoft cũng muốn vượt mặt đối thủ lâu năm của họ, người khổng lồ tìm kiếm trực tuyến Google, cũng mới giới thiệu chatbot AI riêng có tên Bard. Tuy nhiên, ngay từ màn ra mắt, Bard đã mắc phải một sai lầm cơ bản khi đưa ra thông tin sai thực tế trong clip demo đầu tiên, khiến giá trị vốn hóa của Alphabet, công ty mẹ Google, bị thổi bay gần 7%.

Trong bài đăng trên blog vào thứ Sáu, Microsoft cho biết các hạn chế đối với Bing Chat của họ dựa trên các thông tin thu thập được từ bản thử nghiệm beta của công ty.

"Dữ liệu chúng tôi cho thấy đại đa số người dùng tìm thấy câu trả lời mong muốn trong vòng 5 lượt hỏi đáp và chỉ có khoảng 1% các cuộc trò chuyện có hơn 50 câu trả lời." Microsoft cho biết. "Khi chúng tôi tiếp tục nhận được phản hồi từ các bạn, chúng tôi sẽ tiếp tục khám phá việc mở rộng giới hạn số lượng trò chuyện để nâng cao hơn nữa các trải nghiệm tìm kiếm và khám phá."

Đường dây nóng: 0943 113 999

Soha
Báo lỗi cho Soha

*Vui lòng nhập đủ thông tin email hoặc số điện thoại