Tôi không biết liệu kính thông minh có phải là thiết bị khiến chúng ta từ bỏ điện thoại thông minh mãi mãi như một số người trong thế giới công nghệ vẫn làm hay không. Nhưng nếu kính thông minh thực sự có thời điểm của mình, thì đó là vì chúng được trang bị một trợ lý tích hợp khá tốt để giúp bạn điều hướng thế giới.
Tôi đã đi đến kết luận đó sau khi dùng thử nguyên mẫu của một số kính thông minh mà Google xây dựng trên nền tảng Android XR của mình. Bản thân những chiếc kính này là những thiết bị khá bình thường — thay vào đó, tính năng nổi bật là trợ lý Gemini hỗ trợ AI bổ sung đủ chức năng để thậm chí thuyết phục được những người hoài nghi về kính thông minh như tôi.
Google đã công bố kính thông minh Android XR hỗ trợ AI của mình trong bài phát biểu quan trọng tại Google I/O của công ty vào ngày hôm qua (ngày 20 tháng 5). Việc đưa AI vào dưới dạng trợ lý Gemini không hẳn là điều bất ngờ — một tuần trước, Google đã phác thảo kế hoạch đưa Gemini vào nhiều thiết bị hơn, bao gồm cả kính thông minh và tai nghe thực tế hỗn hợp. Nhưng việc Google tự lên kế hoạch cho một cặp kính được trang bị trợ lý tích hợp có thể nhìn thấy những gì bạn nhìn thấy và trả lời các câu hỏi của bạn chắc chắn là điều đáng chú ý.
Nhưng điều đáng chú ý thực sự ở đây không phải là kính của Google trông như thế nào và chúng có thể so sánh với các sản phẩm của đối thủ ra sao, một số trong số đó cũng sẽ được xây dựng trên nền tảng Android XR. Thay vào đó, điều tôi chọn tập trung vào từ bản demo của mình là những gì Gemini mang lại khi bạn thử một cặp kính thông minh.
Tuy nhiên, tôi nên dành một chút thời gian để nói về chính những chiếc kính này. Đối với một thiết kế nguyên mẫu, chúng không quá cồng kềnh — chắc chắn là gọng kính không dày bằng kính Meta Orion AR mà tôi đã thử vào năm ngoái hay kính Snap Spectacles AR mà tôi đã dùng thử. Tôi không đeo kính, trừ khi thỉnh thoảng đeo một cặp kính gian lận vào ban đêm khi tôi đang đọc sách, nhưng nỗ lực của Google, mặc dù dày hơn những chiếc kính đó, nhưng không giống như những chiếc kính mà bạn sẽ xấu hổ khi đeo ở nơi công cộng.
Thời gian dùng thử của tôi không có nhiều thời gian để nói về thông số kỹ thuật — thay vào đó, tôi được tóm tắt các nút điều khiển. Một nút ở trên cùng bên phải của gọng kính sẽ chụp ảnh khi bạn nhấn vào, trong khi một nút ở dưới cùng sẽ tắt màn hình. Ngoài ra còn có một bàn di chuột ở bên cạnh gọng kính mà bạn có thể sử dụng để triệu hồi Gemini bằng cách nhấn và giữ lâu.
Khi đeo kính, tôi chú ý đến một vùng thông tin nhỏ ở phía dưới bên phải của gọng kính, hiển thị thời gian và nhiệt độ. Đây là màn hình hiển thị thông tin, theo cách gọi của Google, và nó không quá xa đến mức bạn không thể nhìn thấy thông tin mà không làm gián đoạn giao tiếp bằng mắt với mọi người. Tuy nhiên, tôi thấy mắt mình bị thu hút vào khu vực có văn bản, mặc dù đó có thể là thứ mà tôi ít muốn nhìn vào theo thời gian.
Như tôi đã đề cập, tôi thực sự không nhận được bản tóm tắt thông số kỹ thuật từ Google và tôi không chắc liệu điều đó có quan trọng không nếu Google tinh chỉnh kính của mình dựa trên phản hồi của người thử nghiệm. Nhưng trường nhìn có vẻ hẹp — rõ ràng là hẹp hơn so với trường nhìn 70 độ mà Orion cung cấp. Nếu tôi phải đoán, tôi sẽ nói rằng điều đó là để không có câu hỏi nào về những gì bạn đang nhìn thấy nếu bạn yêu cầu Gemini cung cấp cho bạn thêm thông tin hoặc hành động.
Khi bạn chạm và giữ vào khung hình — tôi mất một lúc để tìm đúng vị trí, mặc dù tôi nghĩ mình sẽ quen với điều đó khi có nhiều thời gian hơn — logo AI sẽ xuất hiện và Gemini sẽ tự giới thiệu. Bạn có thể bắt đầu đặt câu hỏi ngay lập tức và tôi quyết định tập trung vào một số cuốn sách mà Google để lại xung quanh phòng trình diễn của chúng tôi.
Gemini đã xác định đúng tiêu đề của cuốn sách đầu tiên và nội dung của nó khi tôi yêu cầu nó nêu tên cuốn sách mà tôi đang xem. Nhưng khi tôi hỏi cuốn sách dài bao nhiêu, trợ lý nghĩ rằng tôi muốn tra cứu giá của nó. Được rồi, tôi quyết định, tôi tham gia — cuốn sách có giá bao nhiêu? Sau đó, Gemini muốn biết tôi đang ở đâu — có thể là để đổi tiền? — nhưng câu trả lời của tôi là tôi đang ở Hoa Kỳ khiến Gemini kết luận rằng tôi đang yêu cầu nó xác nhận xem Hoa Kỳ có phải là một trong những địa điểm được giới thiệu trong cuốn sách hay không. Vì vậy, đó là một cuộc trò chuyện vô ích.
Mọi thứ được cải thiện khi tôi thử một cuốn sách khác, cuốn sách này có những bức ảnh xa hoa về nhiều món ăn Nhật Bản khác nhau. Gemini đã xác định đúng một bức ảnh về món sushi, sau đó đề nghị tra cứu các nhà hàng gần đó khi tôi hỏi xem có bất kỳ địa điểm nào gần đó phục vụ món sushi không. Hóa ra đó lại là một tương tác bổ ích.
Gemini cũng có thể xác định một bức tranh treo trong khu vực trưng bày, nói đúng với tôi rằng đó là một ví dụ về trường phái chấm phá và thậm chí còn xác định được tên tác giả và năm ông vẽ bức tranh đó. Sử dụng nút ở phía trên cùng của khung, tôi có thể chụp một bức ảnh và bản xem trước của hình ảnh tôi chụp được hiện lên trước mắt tôi.
Tôi tự hỏi liệu trong quá trình chụp ảnh, tôi có nhấn vào nút bên dưới để tắt màn hình không, vì trong một vài truy vấn, Gemini không thể nhìn thấy những gì tôi đang thấy. Chạm và giữ trên khung lại giúp mọi thứ ổn thỏa, nhưng có lẽ đây là trường hợp Google cần cân nhắc đến vị trí các nút. Hoặc có lẽ đây chỉ là một trong những điều có thể xảy ra khi bạn đang thử nghiệm một nguyên mẫu sản phẩm.
Mặc dù tôi không có thính lực tốt nhất trên thế giới, Gemini vẫn phát ra âm thanh to và rõ ràng qua loa dường như được đặt trong khung. Ấn tượng hơn nữa, đồng nghiệp Kate Kozuch của tôi đã quay video bản demo của tôi và nói với tôi rằng cô ấy không nghe thấy bất kỳ âm thanh tràn nào — điều đó có nghĩa là ít nhất một đầu cuộc trò chuyện Gemini của bạn sẽ được giữ riêng tư.
Thay vào đó, điều khiến tôi ấn tượng với kính Google là tôi tương tác gần như hoàn toàn bằng giọng nói của mình, ngoại trừ một lần chạm nút ở đây hoặc một lần nhấn khung ở đó. Tôi không phải học một loạt các cử chỉ chụm mới và hy vọng rằng các camera trên kính của tôi có thể nhận ra những cử chỉ đó. Thay vào đó, tôi chỉ có thể đặt câu hỏi — và theo cách thoải mái, tự nhiên nữa.
Tôi hình dung phiên bản hoàn thiện của kính XR của Google với Gemini sẽ trông và hoạt động rất khác so với những gì tôi thấy trong tuần này khi chúng cuối cùng cũng ra mắt thị trường và lúc đó tôi sẽ đánh giá sản phẩm dựa trên những ưu điểm đó. Nhưng dù có chuyện gì xảy ra, tôi cá rằng Gemini sẽ là trung tâm của sản phẩm này và tôi thấy đó là nền tảng vững chắc để phát triển.
Tôi đã đi đến kết luận đó sau khi dùng thử nguyên mẫu của một số kính thông minh mà Google xây dựng trên nền tảng Android XR của mình. Bản thân những chiếc kính này là những thiết bị khá bình thường — thay vào đó, tính năng nổi bật là trợ lý Gemini hỗ trợ AI bổ sung đủ chức năng để thậm chí thuyết phục được những người hoài nghi về kính thông minh như tôi.
Google đã công bố kính thông minh Android XR hỗ trợ AI của mình trong bài phát biểu quan trọng tại Google I/O của công ty vào ngày hôm qua (ngày 20 tháng 5). Việc đưa AI vào dưới dạng trợ lý Gemini không hẳn là điều bất ngờ — một tuần trước, Google đã phác thảo kế hoạch đưa Gemini vào nhiều thiết bị hơn, bao gồm cả kính thông minh và tai nghe thực tế hỗn hợp. Nhưng việc Google tự lên kế hoạch cho một cặp kính được trang bị trợ lý tích hợp có thể nhìn thấy những gì bạn nhìn thấy và trả lời các câu hỏi của bạn chắc chắn là điều đáng chú ý.
Không có khung thời gian cụ thể nào cho việc Google phát hành kính của mình. Công ty cho biết các nguyên mẫu đang được thử nghiệm bởi những người sẽ cung cấp phản hồi về thiết kế và bộ tính năng mà Google đưa ra thị trường. Điều đó có nghĩa là sản phẩm hoàn thiện có thể khác rất nhiều so với những gì tôi có cơ hội đeo trong khu vực giới thiệu tại hội nghị Google I/O.
Nhưng điều đáng chú ý thực sự ở đây không phải là kính của Google trông như thế nào và chúng có thể so sánh với các sản phẩm của đối thủ ra sao, một số trong số đó cũng sẽ được xây dựng trên nền tảng Android XR. Thay vào đó, điều tôi chọn tập trung vào từ bản demo của mình là những gì Gemini mang lại khi bạn thử một cặp kính thông minh.
Sử dụng nguyên mẫu kính thông minh của Google

Tuy nhiên, tôi nên dành một chút thời gian để nói về chính những chiếc kính này. Đối với một thiết kế nguyên mẫu, chúng không quá cồng kềnh — chắc chắn là gọng kính không dày bằng kính Meta Orion AR mà tôi đã thử vào năm ngoái hay kính Snap Spectacles AR mà tôi đã dùng thử. Tôi không đeo kính, trừ khi thỉnh thoảng đeo một cặp kính gian lận vào ban đêm khi tôi đang đọc sách, nhưng nỗ lực của Google, mặc dù dày hơn những chiếc kính đó, nhưng không giống như những chiếc kính mà bạn sẽ xấu hổ khi đeo ở nơi công cộng.
Thời gian dùng thử của tôi không có nhiều thời gian để nói về thông số kỹ thuật — thay vào đó, tôi được tóm tắt các nút điều khiển. Một nút ở trên cùng bên phải của gọng kính sẽ chụp ảnh khi bạn nhấn vào, trong khi một nút ở dưới cùng sẽ tắt màn hình. Ngoài ra còn có một bàn di chuột ở bên cạnh gọng kính mà bạn có thể sử dụng để triệu hồi Gemini bằng cách nhấn và giữ lâu.
Khi đeo kính, tôi chú ý đến một vùng thông tin nhỏ ở phía dưới bên phải của gọng kính, hiển thị thời gian và nhiệt độ. Đây là màn hình hiển thị thông tin, theo cách gọi của Google, và nó không quá xa đến mức bạn không thể nhìn thấy thông tin mà không làm gián đoạn giao tiếp bằng mắt với mọi người. Tuy nhiên, tôi thấy mắt mình bị thu hút vào khu vực có văn bản, mặc dù đó có thể là thứ mà tôi ít muốn nhìn vào theo thời gian.
Như tôi đã đề cập, tôi thực sự không nhận được bản tóm tắt thông số kỹ thuật từ Google và tôi không chắc liệu điều đó có quan trọng không nếu Google tinh chỉnh kính của mình dựa trên phản hồi của người thử nghiệm. Nhưng trường nhìn có vẻ hẹp — rõ ràng là hẹp hơn so với trường nhìn 70 độ mà Orion cung cấp. Nếu tôi phải đoán, tôi sẽ nói rằng điều đó là để không có câu hỏi nào về những gì bạn đang nhìn thấy nếu bạn yêu cầu Gemini cung cấp cho bạn thêm thông tin hoặc hành động.
Gemini đang hoạt động trên kính của Google

Khi bạn chạm và giữ vào khung hình — tôi mất một lúc để tìm đúng vị trí, mặc dù tôi nghĩ mình sẽ quen với điều đó khi có nhiều thời gian hơn — logo AI sẽ xuất hiện và Gemini sẽ tự giới thiệu. Bạn có thể bắt đầu đặt câu hỏi ngay lập tức và tôi quyết định tập trung vào một số cuốn sách mà Google để lại xung quanh phòng trình diễn của chúng tôi.
Gemini đã xác định đúng tiêu đề của cuốn sách đầu tiên và nội dung của nó khi tôi yêu cầu nó nêu tên cuốn sách mà tôi đang xem. Nhưng khi tôi hỏi cuốn sách dài bao nhiêu, trợ lý nghĩ rằng tôi muốn tra cứu giá của nó. Được rồi, tôi quyết định, tôi tham gia — cuốn sách có giá bao nhiêu? Sau đó, Gemini muốn biết tôi đang ở đâu — có thể là để đổi tiền? — nhưng câu trả lời của tôi là tôi đang ở Hoa Kỳ khiến Gemini kết luận rằng tôi đang yêu cầu nó xác nhận xem Hoa Kỳ có phải là một trong những địa điểm được giới thiệu trong cuốn sách hay không. Vì vậy, đó là một cuộc trò chuyện vô ích.
Mọi thứ được cải thiện khi tôi thử một cuốn sách khác, cuốn sách này có những bức ảnh xa hoa về nhiều món ăn Nhật Bản khác nhau. Gemini đã xác định đúng một bức ảnh về món sushi, sau đó đề nghị tra cứu các nhà hàng gần đó khi tôi hỏi xem có bất kỳ địa điểm nào gần đó phục vụ món sushi không. Hóa ra đó lại là một tương tác bổ ích.
Gemini cũng có thể xác định một bức tranh treo trong khu vực trưng bày, nói đúng với tôi rằng đó là một ví dụ về trường phái chấm phá và thậm chí còn xác định được tên tác giả và năm ông vẽ bức tranh đó. Sử dụng nút ở phía trên cùng của khung, tôi có thể chụp một bức ảnh và bản xem trước của hình ảnh tôi chụp được hiện lên trước mắt tôi.

Tôi tự hỏi liệu trong quá trình chụp ảnh, tôi có nhấn vào nút bên dưới để tắt màn hình không, vì trong một vài truy vấn, Gemini không thể nhìn thấy những gì tôi đang thấy. Chạm và giữ trên khung lại giúp mọi thứ ổn thỏa, nhưng có lẽ đây là trường hợp Google cần cân nhắc đến vị trí các nút. Hoặc có lẽ đây chỉ là một trong những điều có thể xảy ra khi bạn đang thử nghiệm một nguyên mẫu sản phẩm.
Mặc dù tôi không có thính lực tốt nhất trên thế giới, Gemini vẫn phát ra âm thanh to và rõ ràng qua loa dường như được đặt trong khung. Ấn tượng hơn nữa, đồng nghiệp Kate Kozuch của tôi đã quay video bản demo của tôi và nói với tôi rằng cô ấy không nghe thấy bất kỳ âm thanh tràn nào — điều đó có nghĩa là ít nhất một đầu cuộc trò chuyện Gemini của bạn sẽ được giữ riêng tư.
Google XR glasses outlook
Tôi có thể kể lại một số sự cố với Gemini trong bản demo của mình với kính thông minh của Google, nhưng tôi nghĩ rằng công bằng mà nói thì đó chỉ là sự lo lắng ban đầu khi dùng bản demo. Còn một chặng đường dài nữa trước khi những chiếc kính này gần như sẵn sàng và rất nhiều thứ có thể thay đổi đối với AI của Google trong một khoảng thời gian ngắn. Tôi nhìn vào mức độ cải thiện của Dự án Astra trong năm kể từ khi ra mắt tại Google I/O 2024, ít nhất là dựa trên video mà Google đã trình chiếu trong bài phát biểu quan trọng hôm thứ Ba.Thay vào đó, điều khiến tôi ấn tượng với kính Google là tôi tương tác gần như hoàn toàn bằng giọng nói của mình, ngoại trừ một lần chạm nút ở đây hoặc một lần nhấn khung ở đó. Tôi không phải học một loạt các cử chỉ chụm mới và hy vọng rằng các camera trên kính của tôi có thể nhận ra những cử chỉ đó. Thay vào đó, tôi chỉ có thể đặt câu hỏi — và theo cách thoải mái, tự nhiên nữa.
Tôi hình dung phiên bản hoàn thiện của kính XR của Google với Gemini sẽ trông và hoạt động rất khác so với những gì tôi thấy trong tuần này khi chúng cuối cùng cũng ra mắt thị trường và lúc đó tôi sẽ đánh giá sản phẩm dựa trên những ưu điểm đó. Nhưng dù có chuyện gì xảy ra, tôi cá rằng Gemini sẽ là trung tâm của sản phẩm này và tôi thấy đó là nền tảng vững chắc để phát triển.
- Google Beam mang 3D vào trò chuyện video — cách thức hoạt động của nó
- Google và Xreal công bố quan hệ đối tác với kính thông minh Android XR Project Aura mới
- Google Meet hiện có thể dịch các cuộc gọi video — những điều bạn cần biết