Sorting by

×
Elektronikİlginç BilimMekatronikTeknoloji Haber

Gördüğü Hareketi Tek Seferde Öğrenen Robot Geliştirildi

Berkeley Kaliforniya Üniversitesi’nden bilim insanları ,  videodan gördüğü hareketi tek bir seferde taklit edebilen bir robot geliştirdiler. Yeni geliştirilen bir öğrenme tekniği sayesinde robotlar insan hareketlerini izleyerek, hızlı ve kolayca yeni hareketler öğrenebiliyor. Bilim insanları bunun gerçekleştirmek için gerçekten çok çalışmaları gerekti.

Normalde robotlar bir nesneyi alıp taşımaları için kodlar yardımıyla programlanıyor. Araba fabrikaları, makine fabrikaları vb. yerlerde robotlar böyle kodlanarak çalıştırılıyor. Tabi yine de bu robotlar belli öğrenme periyotu ile defalarca programlayarak öğretme yapmak zorunda İşte Berkeley’den araştırmacılar robotları öyle geliştirdi ki, aynı insanlar ve hayvanlar gibi artık robotlar da doğrudan gözlem yoluyla öğrenebiliyor. Yeni çalışmada ise robot tek seferde yapılacak işi kapıyor.

Araştırmacılar bu başarıya ulaşmak için, meta öğrenme algoritması ile imitasyon öğrenme algoritmasını birleştirdi. Bu sonuca model agnostik meta öğrenme adı veriliyor. Meta öğrenme sayesinde robot önceki tecrübelerinden faydalanıyor. Videoda insan bir armut veya farklı benzeri nesne tuttuğunda, ve onu bir bardağa, kaseye veya diğer bir nesneye koyduğunda bunu objektif olarak duyulmayabiliyor. Eğer her örnek belli bir yolla öğretilirse, sonrasında benzeri davranışları gözlemleyerek öğrenebiliyor. İşte bu şekilde bir insan bir nesneyi hareket ettirdiğinde, robot bunu davranışsal olarak yorumlayıp benzeri bir davranış sergileyebiliyor.

Kaynak : https://techxplore.com/news/2018-07-robot-mimic.html

Araştırma Referansı : One-Shot Imitation from Observing Humans via Domain-Adaptive Meta-Learning, arXiv:1802.01557 [cs.LG] , arxiv.org/abs/1802.01557

Abstract
Humans and animals are capable of learning a new behavior by observing others perform the skill just once. We consider the problem of allowing a robot to do the same—learning from a raw video pixels of a human, even when there is substantial domain shift in the perspective, environment, and embodiment between the robot and the observed human. Prior approaches to this problem have hand-specified how human and robot actions correspond and often relied on explicit human pose detection systems. In this work, we present an approach for one-shot learning from a video of a human by using human and robot demonstration data from a variety of previous tasks to build up prior knowledge through meta-learning. Then, combining this prior knowledge and only a single video demonstration from a human, the robot can perform the task that the human demonstrated. We show experiments on both a PR2 arm and a Sawyer arm, demonstrating that after meta-learning, the robot can learn to place, push, and pick-and-place new objects using just one video of a human performing the manipulation.

— bair.berkeley.edu/blog/2018/06/28/daml/

Daha Fazla Göster

Oğuz Sezgin

Bir bilim sever ve kimyager olarak, internetteki Türkçe kaynak eksikliği görerek Gerçek Bilim’i 2012'de kurdum. Bu sitede gördüğünüz pek çok bilim ve teknoloji haberini ciddi kaynaklardan toplayarak sizin için araştırıyor, çeviriyor ve derliyorum. Gerçek Bilim'deki diğer yazarlar ve ben, her gün baş döndürücü şekilde gelişen bilim ve teknoloji haberlerini size aktarmaktan kıvanç duyarız.

İlgili Makaleler

3 Yorum

  1. Geri bildirim: Gördüğü Hareketi Tek Seferde Öğrenen Robot Geliştirildi Bizsiziz
  2. Geri bildirim: Gördüğü Hareketi Tek Seferde Öğrenen Robot Geliştirildi
  3. Geri bildirim: Gören hereketini gaýtalap bilýän robot — YLYMLY

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

*

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Başa dön tuşu