Thứ hai, 30/07/2018, 10:6 GMT+7

LỢI ÍCH CỦA VIỆC SỬ DỤNG ROBOT TRONG PHÒNG THỬ NGHIỆM

Một bàn tay robot có hình dáng giống bàn tay người quét nhẹ qua ba trái cà chua xếp trên một mặt phẳng. Sau đó, bàn tay robot dùng ngón trỏ chạm nhẹ lên trái cà chua thứ nhất, thứ hai và thứ ba.

 

Cuối cùng, với một cái gạt nhẹ nhàng nhưng chính xác, bàn tay robot đẩy trái cà chua nằm giữa ra khỏi hàng. Trong một thử nghiệm khác, bàn tay robot đó tìm được trái cà chua trên một chồng hai khối lập phương nhỏ và nhẹ nhàng nhất trái cà chua lên mà không làm đổ các khối hộp. Để robot trong phòng thử nghiệm hoạt động chính xác và cẩn thận như vậy cần đến những cảm biến tiên tiến và hiện đại. 


Tại phòng thử nghiệm robot của Đại học Cornell, cánh tay robot thiết kế giống tay người cảm nhận các trái cà chua đã mở ra hướng tiếp cận mới cho các công việc trong phòng thí nghiệm.
Nguồn ảnh: HUICHAN ZHAO

Tác giả của cánh tay robot này là Robert Shepherd, giáo sư cơ khí và kỹ thuật hàng không vũ trụ tại Đại học Cornell (Ithaca, New York), và các cộng sự của anh tại phòng thử nghiệm robot. Các cảm biến mềm là một phần của nghiêm cứu thực hiện tại phòng thử nghiệm (PTN) này. Nhóm nghiêm cứu của Shepherd in 3-D các trụ điện trên vật liệu mềm để tạo ra các cảm biến “biết cảm nhận”, ngay cả khi chúng bị bẻ cong.

Thiết kế nên các cảm biến giống với đầu ngón tay người tưởng chừng chỉ có trong khoa học viễn tưởng. Dù vậy, một số cảm biến tại các PTN robot trong tương lai có thể đến từ những sáng kiến đáng ngạc nhiên như thế.

Cảm biến hình ảnh

Kynan Eng, đồng sáng lập kiêm chủ tịch của iniLabs ở Thụy Sĩ, cho biết: ”Xử lý hình ảnh là một chủ đề nóng của các robot trong phòng thí nghiệm. Các tiến bộ của cảm biến, các thuật toán và hiệu năng của máy tính đã mở ra những cơ hội mới cho tự động hoá để tăng lượng thí nghiệm và khả năng thích nghi cao hơn của thiết bị phòng thí nghiệm”.

Khi xem xét cách điều khiển robot, ý tưởng đầu tiên có thể sử dụng công nghệ chụp hình để tạo một cảm biến. Tuy nhiên, những chuyên gia có chút hiểu biết về cơ chế hoạt động của mắt người và kiến thức về xử lý hình ảnh thần kinh đều không khuyến khích việc bắt chước theo hướng sinh học.Thay vào đó, có cách đơn giản hơn là thu thập một loại các hình ảnh qua một camera, nhưng cách này làm nảy sinh một rắc rối khác. Ông Eng giải thích rằng thách thức lớn là giải quyết khối lượng dữ liệu khổng lồ được tạo ra bởi các cảm biến hình ảnh hiện đại, có tốc độ và độ phân giải cao.

Để giải quyết những thách thức này, các nhà nghiêm cứu tại Viện Tin học Thần Kinh của Đại học Zurich và Viện Công nghệ Liên bang Thụy Sĩ đã phát triển một cảm biến hình ảnh linh hoạt (DVS). Cảm biến này được ông Eng mô tả là “bước thay đổi căn bản đầu tiên trong cách thực hiện thị giác máy tính kể từ phát minh ra máy ảnh”.Công nghệ thông thường sử dụng một loạt các khung hình được chụp lại, nhưng các khung hình cạnh nhau thường chứa nhiều thông tin giống nhau, khiến tiêu tốn bộ nhớ, năng lượng và thời gian xử lý. Các khung hình cũng sử dụng độ phơi sáng tương đương trên mỗi pixel, làm giảm chất lượng hình ảnh tại những điểm cực sáng hoặc cực tối.

Thay vào đó, cảm biến DVS trên thực tế bắt chước một số phương pháp ghi nhận hình ảnh của mắt người.Ví dụ, nó hoạt động hoàn toàn không đồng bộ, không có khung hình, và chỉ xử lý những thay đổi về pixel được tạo ra do chuyển động của hình ảnh đang được ghi nhận. Ông Eng giải thích rằng việc này giúp cảm biến cung cấp dữ liệu ở độ phân giải micro-giây, và cảm biến này hoạt động tốt tương đương thậm chí tốt hơn các cảm biến hình ảnh tốc độ cao thông thường ở mức vài ngàn khung hình trên giây. Không chỉ cung cấp độ phân giải tạm thời tốt hơn , dòng dữ liệu thưa thớt của DVS cần ít bộ nhớ lưu trữ và tốn ít năng lượng hơn. Ông Eng cũng bổ sung rằng tầm nhìn linh hoạt của cảm biến DVS được tăng cường bởi thứ tự độ lớn trong xử lý cục bộ.”

iniLabs khuyến khích áp dụng cảm biến này cho nhiều trường hợp đa dạng khác nhau, bao gồm cả robot chạy theo thời gian thực. Trong trường hợp robot cần có thông tin hình ảnh và phản ứng nhanh, DVS sẽ rất phù hợp. Cảm biến này còn hoạt động tốt hơn khi gặp giới hạn về dung lượng, năng lượng và khối lượng, vì nó chiếm ít tài nguyên hơn các giải pháp ghi hình ảnh thông thường. Hơn nữa, DVS có thể xử lý hình ảnh trên cùng thiết bị chứa cảm biến.

Áp dụng LiDAR vào phòng thử nghiệm

Trong một số trường hợp, cảm biến cho các robot PTN lại bắt nguồn từ một công nghệ khác. Tại Morgan Hill, California, các nhà khoa học tại Velodyne LiDAR sử dụng công nghệ phát hiện ánh sáng (LiDAR) để tạo ra cảm biến cho các ứng dụng khác nhau như xe tự lái. Ở xe tự lái, LiDAR được dùng để xác định các con đường và cao tốc. Jef Wuendry, quản lý marketing tại Velodyne cho biết công nghệ này còn được dùng để hướng dẫn cánh tay máy hoặc thiết bị truyền động trong sản xuất”.

Cảm biến 3-D LiDAR được thiết kế 10 năm trước có độ chuyên môn hoá cao hơn, kích thước lớn hơn và cực kỳ đắt đỏ.Mấu chốt trong công nghệ của Velodyne là kích thước.“Điểm đặc biệt đó là nhiều bộ phận phụ đã được thu nhỏ để cảm biến trở nên nhỏ hơn”. Wuendry giải thích. Velodyne phối hợp với Efficient Power Conversion (El Segundo, California) để hoàn thiện ý tưởng này bằng cách tạo một cảm biến LiDAR ở thể rắn từ một chip điện tử gali nitrit (IC) rộng khoảng 4mm vuông. Kích thước cảm biến nhỏ hơn và thiết kế theo thể rắn giúp 3-D LiDAR dễ dàng áp dụng rộng rãi hơn. Ngoài các ứng dụng trong sản xuất, thiết bị này có thể được sử dụng hiệu quả trong máy bay không người lái nhờ kích thước nhỏ và ít các bộ phận cần chuyển động.

Trong bài viết về tiến bộ công nghệ này, Anand Gopalan, phó giám đốc bộ phận R&D tại Velodyne LiDAR khẳng định: “Công nghệ này thực sự mở ra cơ hội cho ứng dụng thu nhỏ và đem lại cho Velodyne khả năng thiết kế các dạng khác nhau của LiDARs cho nhiều ứng dụng phong phú. Chúng tôi sẽ sớm phát triển một portfolio của các mẫu IC để giải quyết các khía cạnh chức năng của LiDAR, tạo hướng đi cho các thế hệ sản phẩm LiDAR mới, thu nhỏ, tin cậy và chi phí cạnh tranh.”

Công nghệ này phụ thuộc vào scan laser 3-D. Các đi-ốt laser trên IC tạo ra nhận thức sâu như nhận thức của mắt người. Các đi-ốt quay ở tốc độ 20 hertz thu thập dữ liệu trên đối tượng với góc rộng 360 độ xung quanh và 30 độ chiều trên và dưới, quét đến khoảng cách rộng 200 mét. Để làm được điều này, nó xử lý từ 300,000 đến 1 triệu điểm dữ liệu trên giây. Lượng dữ liệu này khá nhiều, nhưng thuật toán kiểm soát mới được thiết kế để giảm nhu cầu sử dụng tất cả dữ liệu ở mọi thời điểm. Bằng cách sử dụng công nghệ cảm biến tương tự, bộ kiểm soát có thể tập trung vào các thay đổi tại điểm dữ liệu và bỏ qua những điểm dữ liệu thống kê. Thông tin thu thập được từ IC sẽ chuyển tới bộ điều khiển để xử lý bên ngoài. Một phiên bản khác của công nghệ này là Puck, một cảm biến nhỏ cỡ 2 viên cầu puck trong trò hockey được xếp chồng lên nhau.

Sự thu nhỏ của cảm biến cũng những tiến bộ trong chức năng của chúng đã mở rộng các ứng dụng trong tương lai. Wuendry nói: “Do cảm biến nhỏ hơn và mạnh mẽ hơn, chúng ta có thể đặt nó ở nhiều vị trí hơn. Nó đỡ đắt đỏ hơn nên cũng dễ ứng dụng hơn.” Một số cảm biến sẽ được sử dụng trong phòng thí nghiệm robot của tương lai. Một số có thể được sử dụng trong các thiết bị bay không người lái ngày nay để giúp các nhà khoa học thu thập dữ liệu.

Tinh chỉnh các kỹ thuật

Thay vì bay tới hiện trường thu thập dữ liệu, hầu hết robot trong phòng thử nghiệm cần sự điều khiển chính xác hơn để đi chuyển mẫu và thiết bị. Cũng giống như các phát triển khác, sự cải tiến có thể đến từ những nơi rất bất ngờ.Ví dụ như công ty OptoForce tại Hungary đã tạo ra một cảm biến 6 trục mô-men xoắn.

Nora Bereczki, giám đốc marketing tại OptoForce nói: “Cảm biến của chúng tôi giúp robot có xúc giác để thực hiện nhiều công việc tự động hơn và tiết kiệm thời gian hơn. Với cảm biến của chúng tôi, robot sẽ hoạt động chính xác hơn và những công việc cần xúc giác con người có thể được tự động hoá.”

Trong PTN thường cần có xúc giác. Trên thực tế, có thể sử dụng robot hoạt động theo nhóm tại PTN. Bereczki nói: “Hiện tại, các robot phối hợp đang có ưu thế trong sản xuất. Thị trường đang có nhu cầu lớn đối với loại giải pháp này, ví dụ như các công việc đơn điệu, có tính chất lặp lại của con người.” Trong PTN cũng co nhu cầu tương tự, và cảm biến của OptoForce có thể giúp các nhà khoa học. Hơn nữa, cảm biến của OptoForce có độ nhạy cực cao, có thể cảm nhận lực ở mức 0.1N, và nó rất bền. “Dù cảm biến bị rơi xuống sàn, nó cũng không bị vỡ”, Bereczki nhấn mạnh.

Độ nhạy cao, tinh tế và độ bền khiến cảm biến này trở thành một lựa chọn đáng giá cho PTN robot. Theo lời Bereczki thì công ty đang liên tục phát triển ứng dụng theo nhu cầu thị trường. Mặc dù những nhu cầu đó đến từ ngành công nghiệp hiện nay, nhưng robot trong PTN khoa học có thể là một trong những ứng dụng quan trọng của công nghệ này trong tương lai.

Theo dõi cánh tay robot lựa chọn cà chua hay nhìn một chiếc máy di chuyển kiện hàng tại một nhà máy có thể không giống những liên tưởng của bạn về tự động hoá PTN của mình, nhưng hãy nghĩ rộng hơn thế. Bạn sẽ không bao giờ biết được thời điểm một công nghệ nào đó được cải tiến phù hợp với nhu cầu trong PTN của bạn. Chính bàn tay robot lựa chon cà chua đó có thể cẩn thận di chuyển thiết bị PTN của bạn. Nếu PTN phân tích các mẫu hoặc các chất nguy hiểm, những cảm biến này có thể được ứng dụng nhiều hơn để giúp nhóm nghiêm cứu của bạn an toàn và máy móc có thể thay thế một số công việc của con người.

Hệ thống tự động ARUP

MINH PHƯƠNG
(Theo labmanager.com)
Bản tin thử nghiệm ngày nay số 3 - Tháng 01/2018




CASE CẦN THƠ
Copyright © 2010-2018 case.vn, All right reserved Contact us - About Case
Design by case.vn - Counter : 1790936 | Online : 51