Hệ thống dựa trên Kinect được phát triển để nhận ra những gì bạn đang làm

Anonim

Hệ thống dựa trên Kinect được phát triển để nhận ra những gì bạn đang làm

Khoa học

Bến Coxworth

Ngày 8 tháng 7 năm 2011

2 hình

Một số hoạt động mà hệ thống hỗ trợ Kinect có thể xác định (Ảnh: Đại học Cornell)

Khi nào và nếu chúng ta có được trợ lý robot cá nhân của mình, thật tuyệt khi nghĩ rằng chúng ta có thể "là chính mình " trước mặt họ, làm những việc như gãi mông hoặc kiểm tra chất khử mùi của chúng ta - bởi vì họ chỉ là robot, phải không? Họ sẽ không biết chúng ta đang làm gì. Chà ... nhờ nghiên cứu hiện đang được tiến hành tại Đại học Cornell, đã có một hệ thống Microsoft Kinect có thể xác định chính xác các hoạt động của mọi người, dựa trên quan sát chuyển động của họ. Nếu công nghệ như vậy được tích hợp vào robot, có khả năng nó có thể khuyên bạn nhai khi mở miệng - mặc dù nhiều khả năng, nó có thể giúp bạn nâng một vật nặng.

Trong dự án nghiên cứu, máy ảnh RGBD (Đỏ, Xanh lục, Xanh lam, Sâu) của Kinect đã được sử dụng để quan sát bốn người thực hiện 12 hoạt động khác nhau trong năm môi trường khác nhau - văn phòng, nhà bếp, phòng ngủ, phòng tắm và phòng khách. Các hoạt động bao gồm những việc như đánh răng, nấu ăn, viết trên bảng trắng, làm việc trên máy tính và uống nước. Dữ liệu được chạy qua một thuật toán, trong đó các hoạt động được chia thành các hoạt động phụ dễ quản lý hơn, được gọi là mô hình Markov entropy tối đa phân cấp. Về cơ bản, nó tuyên bố rằng nếu một người được nhìn thấy làm A, B, C và D, thì E có lẽ là những gì họ đang làm. Nếu hệ thống lần đầu tiên nhìn thấy người thực hiện một tập huấn luyện các hoạt động, nó có thể nhận ra các hoạt động đó với độ chính xác 84, 3% "trong trường. " Nếu trước đó họ không nhìn thấy người đó, thì có thể quản lý chính xác 64, 2 phần trăm.

Robot trợ lý cá nhân được trang bị hệ thống như vậy có thể sử dụng nó trong các tình huống chăm sóc tại nhà, kiểm tra xem những người chăm sóc có uống đủ nước, đánh răng thường xuyên, uống thuốc, v.v. Tùy thuộc vào khả năng của robot, nếu thấy rằng người đó gặp khó khăn khi làm điều gì đó, nó thậm chí có thể bước vào và giúp đỡ.

Trong các thí nghiệm, hệ thống có thể tránh bị vứt bỏ bởi những cử chỉ không liên quan pha trộn với các hoạt động và dường như không có vấn đề gì nếu người mà nó đang xem là thuận tay trái hay tay phải. Tuy nhiên, các nhà nghiên cứu Cornell đã thừa nhận rằng tất cả các đối tượng của họ đang hoạt động ngoài trời và không chắc hệ thống sẽ hoạt động tốt như thế nào nếu các đối tượng chặn một phần tầm nhìn của nó. Họ cũng gợi ý rằng nó sẽ hoạt động tốt hơn nếu hệ thống có thể học cách nhận biết một số đối tượng chính (bàn chải đánh răng, dĩa, v.v.) theo ngữ cảnh đối với các hoạt động nhất định.

Nguồn: TÔI CHƯƠNG TRÌNH

Một số hoạt động mà hệ thống hỗ trợ Kinect có thể xác định (Ảnh: Đại học Cornell)

Một số hoạt động mà hệ thống hỗ trợ Kinect có thể xác định (Ảnh: Đại học Cornell)