Apple đang nghiên cứu công nghệ có thể thay đổi mọi thứ cho người khuyết tật. iPhone có thể được điều khiển bằng suy nghĩ mà không cần chạm vào màn hình. Một dự án đầy tham vọng kết hợp cấy ghép não và trí tuệ nhân tạo.
Trong nhiều năm, các công ty công nghệ lớn đã tăng số lượng công cụ trợ năng. Một số người mắc bệnh thoái hóa thần kinh không còn có thể sử dụng điện thoại hoặc máy tính theo cách bình thường. Trong bối cảnh này, những cách thức tương tác mới với các thiết bị đang được nghiên cứu, tại giao diện giữa y học, điện tử và trí tuệ nhân tạo.
Theo The Wall Street Journal, Apple có kế hoạch tích hợp giao diện não-máy vào hệ thống của mình. Công nghệ thử nghiệm này, được phát triển cùng với công ty khởi nghiệp Synchron của Úc, sẽ giúp chúng ta có thể điều khiển iPhone, iPad hoặc tai nghe Vision Pro rảnh tay, chỉ bằng suy nghĩ. Nó dựa trên một cấy ghép não có chức năng ghi lại hoạt động điện của não và chuyển đổi thành các hành động kỹ thuật số. Nguyên lý này gợi nhớ đến Neuralink, dự án do Elon Musk đứng đầu, nhưng với phương pháp ít xâm lấn hơn.
Apple cũng đang cân nhắc kết hợp giao diện này với tính năng “Giọng nói cá nhân”, vốn đã được tích hợp sẵn trong các thiết bị của hãng. Tính năng này cho phép bạn ghi âm giọng nói của mình trước khi mất, sau đó phát lại theo cách tổng hợp. Bằng cách kết hợp hệ thống này với thiết bị cấy ghép, chúng ta có thể “nghĩ” ra một từ và nghe một giọng nói giống hệt giọng của mình phát âm từ đó. Do đó, một người mắc bệnh ALS vẫn có thể sử dụng iPhone và nói lại mà không cần cử động. Đây vẫn đang trong giai đoạn thử nghiệm, nhưng công ty muốn phổ biến công nghệ này trong thời gian dài, để khôi phục quyền tự chủ cho những người bị tước mất quyền này.

Trong nhiều năm, các công ty công nghệ lớn đã tăng số lượng công cụ trợ năng. Một số người mắc bệnh thoái hóa thần kinh không còn có thể sử dụng điện thoại hoặc máy tính theo cách bình thường. Trong bối cảnh này, những cách thức tương tác mới với các thiết bị đang được nghiên cứu, tại giao diện giữa y học, điện tử và trí tuệ nhân tạo.
Theo The Wall Street Journal, Apple có kế hoạch tích hợp giao diện não-máy vào hệ thống của mình. Công nghệ thử nghiệm này, được phát triển cùng với công ty khởi nghiệp Synchron của Úc, sẽ giúp chúng ta có thể điều khiển iPhone, iPad hoặc tai nghe Vision Pro rảnh tay, chỉ bằng suy nghĩ. Nó dựa trên một cấy ghép não có chức năng ghi lại hoạt động điện của não và chuyển đổi thành các hành động kỹ thuật số. Nguyên lý này gợi nhớ đến Neuralink, dự án do Elon Musk đứng đầu, nhưng với phương pháp ít xâm lấn hơn.
Apple kích hoạt Switch Control để cấy ghép não tương tác với iPhone của bạn thông qua suy nghĩ
Cụ thể, cấy ghép được đặt gần vỏ não vận động. Nó phát hiện các tín hiệu do não phát ra khi một người nghĩ đến việc di chuyển. Dữ liệu này sau đó được phần mềm Switch Control của Apple diễn giải, vốn đã được sử dụng cho các tính năng trợ năng. Tính năng này cho phép bạn điều hướng giao diện, chọn biểu tượng hoặc tương tác với một thành phần trên màn hình, tất cả đều mà không cần tiếp xúc vật lý. Phương pháp này chủ yếu nhắm đến những người bị liệt hoặc chấn thương tủy sống.Apple cũng đang cân nhắc kết hợp giao diện này với tính năng “Giọng nói cá nhân”, vốn đã được tích hợp sẵn trong các thiết bị của hãng. Tính năng này cho phép bạn ghi âm giọng nói của mình trước khi mất, sau đó phát lại theo cách tổng hợp. Bằng cách kết hợp hệ thống này với thiết bị cấy ghép, chúng ta có thể “nghĩ” ra một từ và nghe một giọng nói giống hệt giọng của mình phát âm từ đó. Do đó, một người mắc bệnh ALS vẫn có thể sử dụng iPhone và nói lại mà không cần cử động. Đây vẫn đang trong giai đoạn thử nghiệm, nhưng công ty muốn phổ biến công nghệ này trong thời gian dài, để khôi phục quyền tự chủ cho những người bị tước mất quyền này.