Новый метод расширяет возможности захвата для роботов (+ видео)

Роботы, которые подбирают и перемещают объекты (например, на конвейерах) могут найти широкое применение, но они, как правило, запрограммированы для работы с определенным типом объектов, которые находятся в заданном положении. Однако недавно ученые разработали метод, позволяющий сделать роботов более универсальными.

«Одним из основных недостатков существующих роботизированных систем захвата является неумение быстро адаптироваться к переменам, например, когда объект перемещается, — говорит д-р Юрген Ляйтнер из австралийского Технологического университета Квинсленда (QUT). — Мир не предсказуем — все меняется и путается и, зачастую, это происходит без предупреждения. Поэтому эффективные роботы должны уметь адаптироваться и работать в неопределенных условиях».

Для этого команда во главе с Ляйтнер начала разработку искусственной нейронной сети (система с ИИ, которая позволяет компьютерам решать задачи на основе анализируемых примеров). С помощью этой сети и камеры, снимающей объемное изображение, робот с двумя пальцами смог составить попиксельную точную карту пространства в движении и распознать набор помещенных перед ним предметов, а затем определял лучший способ захвата для любого из этих объектов.

«Сопоставляя в едином цикле то, что находится перед ним, и используя объемное изображение, роботу не нужно выполнять различные попытки захвата, прежде чем принимать решение, избегая длительных вычислений, — говорит исследователь Дуглас Моррисон, один из членов команды. — При реальных испытаниях нам удалось добиться 83% точности захвата ранее неизвестных предметов с неудобной формой и 88% успешных попыток были выполнены с бытовыми предметами, перемещающимися во время попытки схватить их».

Эта технология опирается на систему, которую команда использовала в 2017 году, когда выиграла конкурс Amazon Picking Challenge.

Источник: http://www.robo-geek.ru/nauchnye-razrabotki-programmnoe-obespechenie/novyi-metod-rasshiryaet-vozmozhnosti-zahvata-dlya-robotov

Add Comment

Required fields are marked *. Your email address will not be published.