Cho dù trên ChatGPT, Grok, Google Gemini hay thậm chí là Mistral, nếu bạn sử dụng trí tuệ nhân tạo, chắc chắn bạn đã nhận được những câu trả lời kỳ quặc, độc đáo hoặc thậm chí là... sai.
Những người dùng chú ý nhất sẽ nhận thấy một thông báo xuất hiện bên dưới mỗi câu trả lời cho biết rằng "ChatGPT có thể mắc lỗi" và thậm chí "khuyến nghị kiểm tra thông tin quan trọng".
Nhưng gần đây hơn, trong một nghiên cứu được công bố trên Hugging Face vào thứ Tư tuần này và được thực hiện bởi Giskard, một công ty của Pháp chuyên về phân tích và trí tuệ nhân tạo, chúng tôi đã có thể tìm hiểu thêm về lý do gây ra những ảo giác này…
Theo các nhà nghiên cứu, điều này càng trở nên có vấn đề hơn khi chúng ta thấy ngày càng có nhiều câu trả lời ngắn trên một số mô hình nhất định để hạn chế chi phí.
Thật vậy, nghiên cứu cho thấy GPT-4o, hiện là mô hình OpenAI được sử dụng theo mặc định trên ChatGPT, chính xác là một trong những mô hình đáng kinh ngạc nhất. Theo Sam Altman trong một hội nghị TED gần đây, công cụ này được một trong mười người trên thế giới sử dụng, quan sát này vẫn đáng lo ngại.
Trong số các mô hình khác được xác định, Giskard đề cập đến Mistral Large, nhưng cũng đề cập đến Claude 3.7 Sonnet từ Anthropic.
Thật vậy, với việc sử dụng ngày càng rộng rãi và chi phí ngày càng cao, các công ty như OpenAI hoặc Anthropic phải đối mặt với những lựa chọn về trải nghiệm người dùng của họ. Mặc dù câu trả lời ngắn gọn giúp chúng dễ sử dụng hơn và ít tốn kém hơn, nhưng chúng cũng có thể khuyến khích thông tin sai lệch trong tương lai…
Những người dùng chú ý nhất sẽ nhận thấy một thông báo xuất hiện bên dưới mỗi câu trả lời cho biết rằng "ChatGPT có thể mắc lỗi" và thậm chí "khuyến nghị kiểm tra thông tin quan trọng".
Một nghiên cứu giải thích về ảo giác của AI
Mặc dù những lời lảm nhảm của AI, mà các chuyên gia về trí tuệ nhân tạo gọi là "ảo giác", không còn thường xuyên như khi ChatGPT ra mắt vào năm 2022, nhưng cho đến nay, công chúng nói chung vẫn không thể giải thích được. Vào năm 2024, nghiên cứu đầu tiên từ Đại học Stanford đã chứng minh rằng ảo giác liên quan đến 10% các yêu cầu.Nhưng gần đây hơn, trong một nghiên cứu được công bố trên Hugging Face vào thứ Tư tuần này và được thực hiện bởi Giskard, một công ty của Pháp chuyên về phân tích và trí tuệ nhân tạo, chúng tôi đã có thể tìm hiểu thêm về lý do gây ra những ảo giác này…
Hãy cẩn thận với những câu hỏi ngắn!
Trong số Các yếu tố mà nghiên cứu này tiết lộ, trước hết là những câu hỏi ngắn được chọn lọc. Được coi là quá không chính xác, đôi khi mơ hồ và không có bất kỳ bối cảnh nào, chúng có thể hoàn toàn gây nhầm lẫn cho trí tuệ nhân tạo.Theo các nhà nghiên cứu, điều này càng trở nên có vấn đề hơn khi chúng ta thấy ngày càng có nhiều câu trả lời ngắn trên một số mô hình nhất định để hạn chế chi phí.
Các mô hình dễ gây ảo giác hơn
Giskard đã tiến hành nghiên cứu trên một số mô hình, điều này cũng cho phép chúng tôi hiểu rằng một số mô hình nhất định có thể dễ gây ảo giác hơn. Trong khi người ta có thể nghĩ rằng chỉ những mô hình kém tiên tiến nhất mới bị ảnh hưởng thì thật không may là không phải vậy.Thật vậy, nghiên cứu cho thấy GPT-4o, hiện là mô hình OpenAI được sử dụng theo mặc định trên ChatGPT, chính xác là một trong những mô hình đáng kinh ngạc nhất. Theo Sam Altman trong một hội nghị TED gần đây, công cụ này được một trong mười người trên thế giới sử dụng, quan sát này vẫn đáng lo ngại.
Trong số các mô hình khác được xác định, Giskard đề cập đến Mistral Large, nhưng cũng đề cập đến Claude 3.7 Sonnet từ Anthropic.
Trải nghiệm người dùng đánh đổi bằng thực tế?
Mặc dù hiện tượng ảo giác không phải là điều gì mới mẻ trong trí tuệ nhân tạo, nghiên cứu này nêu bật một thực tế không nên xem nhẹ.Thật vậy, với việc sử dụng ngày càng rộng rãi và chi phí ngày càng cao, các công ty như OpenAI hoặc Anthropic phải đối mặt với những lựa chọn về trải nghiệm người dùng của họ. Mặc dù câu trả lời ngắn gọn giúp chúng dễ sử dụng hơn và ít tốn kém hơn, nhưng chúng cũng có thể khuyến khích thông tin sai lệch trong tương lai…