“Siêu AI” này thực sự sử dụng con người thật

theanh

Administrator
Nhân viên
ChatGPT vẫn còn một tương lai tươi sáng ở phía trước. Trong nhiều tháng, công ty khởi nghiệp Builder.ai đã khẳng định mình là một trong những biểu tượng của thế hệ trí tuệ nhân tạo mới, đáng tin cậy hơn, nhưng trên hết là phản hồi tự nhiên hơn. Trợ lý ảo của công ty, có tên là Natasha, được giới thiệu là một kỳ tích của trí tuệ nhân tạo, đến mức giúp công ty nhận được sự hỗ trợ của Microsoft và định giá gần 1,5 tỷ đô la.

Tuy nhiên, thực tế đã sớm xuất hiện. Đằng sau những lời hứa về công nghệ, thực tế có tới 700 kỹ sư Ấn Độ bắt chước các chatbot để trả lời các truy vấn của người dùng Internet. Một thảm họa không còn là ngoại lệ trên thị trường nữa.

Natasha, AI hoàn toàn giống con người​

Lời hứa của Builder.ai rất hấp dẫn: cho phép bất kỳ ai cũng có thể tạo ứng dụng dễ dàng như đặt pizza, nhờ vào trợ lý ảo được cho là có thể tự động tạo phần mềm. Đề xuất này hợp lý khi thu hút nhiều nhà đầu tư, bao gồm cả Microsoft, những người luôn nhanh chóng đặt cược vào những thiên tài công nghệ mới.

Ngoại trừ việc, ngay từ năm 2019, đã xuất hiện những nghi ngờ về thực tế về năng lực kỹ thuật của Builder.ai. Một bài báo trên Tạp chí Phố Wall đã chỉ ra điểm yếu của công nghệ AI của công ty, phần lớn được bù đắp bằng sự can thiệp của con người. Sự lừa dối cuối cùng đã bị phát hiện vào tháng 5 năm 2025, khi một cuộc kiểm toán tiết lộ rằng công ty đã có thói quen thổi phồng doanh thu của mình. Thay vì con số 220 triệu đô la như đã công bố, Builder.ai được cho là chỉ tạo ra 50 triệu đô la.

Một cuộc điều tra của Times of India cuối cùng đã tiết lộ rằng hầu hết công việc được giao cho Natasha thực chất được thực hiện bởi 700 kỹ sư Ấn Độ, những người đã trả lời thủ công các câu hỏi của khách hàng trong khi vẫn duy trì ảo giác về sự tự động hóa rộng rãi. Lời khai từ các nhân viên cũ đã xác nhận rằng hệ thống dựa vào các hướng dẫn chính xác để bắt chước tính tức thời và tính liên quan của một chatbot: thời gian giao hàng giả tạo, phản hồi được chuẩn hóa và lệnh cấm sử dụng thuật ngữ chuyên ngành có khả năng phản bội bản chất con người của dịch vụ. Mọi thứ đều được thiết kế để tạo ra ảo tưởng về một chatbot hoàn hảo.

Một cuộc điều tra đã được mở​

Việc phát hiện ra vụ gian lận này đã đẩy nhanh sự sụp đổ của Builder.ai. Không thể đáp ứng các nghĩa vụ tài chính của mình - bao gồm 85 triệu đô la nợ Amazon và 30 triệu đô la nợ Microsoft cho các dịch vụ đám mây - công ty khởi nghiệp này đã sa thải gần 1.000 nhân viên và nộp đơn xin phá sản tại Vương quốc Anh, Ấn Độ và Hoa Kỳ. Chính quyền Hoa Kỳ đã mở một cuộc điều tra liên bang, yêu cầu truy cập vào các tài khoản và danh sách khách hàng của công ty.

Mặc dù là một cột mốc trong ngành AI, nhưng vụ việc Builder.ai chỉ là một phần của xu hướng rửa tiền AI rộng hơn: định giá quá cao hoặc làm sai lệch các khả năng của trí tuệ nhân tạo của các công ty mong muốn thu hút sự chú ý của các nhà đầu tư và khách hàng. Thực tế này, từ việc thổi phồng tiếp thị đến lừa dối trắng trợn, ảnh hưởng đến nhiều lĩnh vực, từ tài chính đến hàng tiêu dùng và đang bắt đầu thu hút sự chú ý của các cơ quan quản lý. AI đã trở thành một điểm bán hàng và không còn hiếm khi thấy nó được sử dụng tùy ý trong các bài quảng cáo tiếp thị.
 
Back
Bên trên