Các nhà khoa học Trung Quốc vừa phát triển thành công chip mô phỏng não người, giúp robot nhận diện chuyển động nhanh gấp bốn lần mắt người và giảm tới 75% độ trễ xử lý.
- 34 người tử vong do tai nạn giao thông trong ngày đầu nghỉ Tết Bính Ngọ
- Clip tỏ tình — hành trình 14 năm của “thánh tỏ tình”
- Ghép gan cấp cứu nỗ lực hồi sinh bệnh nhân trong kỳ nghỉ Tết
Bước đột phá từ cấu trúc thần kinh não bộ
Nhóm nghiên cứu thuộc Đại học Beihang và Viện Công nghệ Bắc Kinh đã phát triển một loại chip mô phỏng thần kinh mới, lấy cảm hứng từ nhân gối bên (LGN) trong não bộ. LGN đóng vai trò là trạm trung chuyển và bộ lọc thông tin giữa võng mạc và vỏ não thị giác, cho phép con người tập trung xử lý vào các vật thể di chuyển nhanh hoặc thay đổi đột ngột. Việc đưa nguyên lý này vào thiết kế chip đã giúp đẩy tốc độ phân tích video vượt xa khả năng của con người.
Phần lớn hệ thống thị giác robot truyền thống hiện nay vẫn dựa trên việc ghi lại từng khung hình tĩnh và dùng thuật toán để phân tích sự thay đổi độ sáng. Quy trình này tuy ổn định nhưng thường mất hơn nửa giây để xử lý, tạo ra độ trễ đáng kể. Ngược lại, mô-đun thần kinh nhân tạo mới có khả năng phát hiện sự thay đổi ánh sáng theo thời gian thực mà không cần chờ đợi xử lý từng khung hình đơn lẻ.
Ưu thế vượt trội trong vận hành thực tế
Trong các thử nghiệm mô phỏng lái xe và điều khiển cánh tay robot, con chip mới đã chứng minh hiệu quả vượt trội khi giảm khoảng 75% độ trễ xử lý. Đồng thời, độ chính xác trong việc theo dõi chuyển động ở những tình huống phức tạp cũng tăng gấp đôi so với các phương pháp truyền thống trước đây. Điều này đặc biệt quan trọng đối với các ứng dụng đòi hỏi phản ứng tức thì như xe tự lái tốc độ cao.
Công nghệ này hứa hẹn sẽ tối ưu hóa hệ thống tránh va chạm của xe tự hành, theo dõi mục tiêu trên máy bay không người lái và cải thiện khả năng robot phản hồi cử chỉ con người. Tuy nhiên, hệ thống vẫn cần thuật toán luồng quang học để diễn giải hình ảnh cuối cùng, dẫn đến một số trở ngại khi hoạt động trong môi trường có quá nhiều chuyển động cùng lúc.
Theo: VnEconomy
