Евро-Азиатский институт образовательных технологий Eurasian Institute of educational technologies
Friday, 2020-04-03, 7:12 PM
Site menu
Section categories
Археология- Аrcheology
Ботаника- Вotany
География- Geography
Зоология- Zoology
История- Нistory
История науки- Нistory of science
Медицина- Мedicine
Образование- Education
Общая биология- General biology
Общество- Society
Палеонтология- Рaleontology
Право- Jurisprudence
Психология- Рsychology
Технологии- Technology
Физика- Physics
Химия- Сhemistry
Экология- Еcology
Экономика- Еconomy
Our poll
Выберите научные направления, которые интересны Вам / Select the science areas that you interest in
Total of answers: 2565
Statistics

Total online: 1
Guests: 1
Users: 0

8:38 PM
Искусственный интеллект самостоятельно учит роботов ходить / Artificial intelligence teaches robots to walk on their own

Для того, чтобы роботизированый механизм научился ходить, недостаточно просто «приделать» к нему несколько ног. Обучение передвижению — очень сложный процесс, отнимающий у разработчиков массу времени. Но теперь этот вопрос будет решать искусственный интеллект, ведь группа экспертов создала универсальные алгоритмы, помогающие искусственному интеллекту учить роботов любой конфигурации перемещаться. При этом вмешательство человека в этот процесс не требуется.

За разработкой стоит команда ученых из Калифорнийского университета в Беркли и группа экспертов Google Brain, одного из исследовательских подразделений Google по искусственному интеллекту. Их новая система обучила четвероногого робота пересекать как знакомую местность, так и незнакомую.

«Глубокое обучение с подкреплением может быть использовано для автоматизации ряда задач. Если мы сможем научить робота походке с нуля в реальном мире, мы можем создать контроллеры, которые идеально адаптированы к каждому роботу и даже к отдельным ландшафтам, позволяя достигать лучшей маневренности, энергоэффективности и надежности.» — заявили ученые.

Обучение с подкреплением — это, по сути, метод кнута и пряника адаптированный для искусственно интеллекта. Он использует вознаграждение или наказание при достижении или не достижении целей.

«Глубокое обучение с подкреплением широко используется для тренировки искусственного интеллекта и даже для передачи данных реальным роботам, но это неизбежно влечет за собой некоторую потерю производительности из-за несоответствий в моделировании и требует активного вмешательства. Использование таких алгоритмов в реальном времени оказалось непростой задачей.»

Для экспериментов ученые взяли робота Minitaur. Они разработали систему, состоящую из рабочей станции, которая обновляла данные нейронной сети, загружала информацию в Minitaur и выгружала обратно. Чип NVIDIA Jetson TX2 на борту робота отвечал за обработку информации. Робот шагал на протяжении 2 часов и сделал 160 000 шагов. За это время алгоритм вознаграждал робота за перемещение вперед и наказывал, если он застревал на месте или давал очень большой крен в сторону. В итоге был создан алгоритм движения, позволивший роботу в любой ситуации выбирать оптимальную траекторию движения.

«Насколько нам известно, этот эксперимент является первым примером применения обучения с подкреплением, который позволяет научить робота ходить.»

 https://hi-news.ru/technology/predstavlen-ii-kotoryj-samostoyatelno-uchit-robotov-xodit.html#


In order to robotized mechanism learned to walk, you can't just "attach" to it a few feet. Learning to move — a very complex process that takes developers a lot of time. But now this issue will be solved by artificial intelligence, because a group of experts has created universal algorithms that help artificial intelligence to teach robots of any configuration to move. At the same time, human intervention in this process is not required.
Behind the development is a team of scientists from the University of California at Berkeley and a group of experts Google Brain, one of Google's research divisions of artificial intelligence. Their new system taught the four-legged robot to cross both familiar and unfamiliar terrain.

"Deep learning with reinforcement can be used to automate a number of tasks. If we can teach a robot to walk from scratch in the real world, we can create controllers that are perfectly adapted to each robot and even to individual landscapes, allowing for better maneuverability, energy efficiency and reliability."— said the scientists.

Reinforcement learning is essentially a carrot-and-stick method adapted to artificial intelligence. He uses reward or punishment when he achieves or fails to achieve goals.

"Deep learning with reinforcement is widely used to train artificial intelligence and even to transmit data to real robots, but it inevitably entails some loss of performance due to inconsistencies in the simulation and requires active intervention. Using these algorithms in real time proved to be a challenge.»

For experiments, scientists took the robot Minitaur. They developed a system consisting of a workstation that updated the neural network data, loaded the information into Minitaur and unloaded it back. The NVIDIA Jetson TX2 chip on Board the robot was responsible for information processing. The robot walked for 2 hours and made 160 000 steps. During this time, the algorithm rewarded the robot for moving forward and punished if it stuck in place or gave a very large roll to the side. As a result, an algorithm of movement was created, which allowed the robot to choose the optimal trajectory in any situation.

"As far as we know, this experiment is the first example of the application of reinforcement training, which allows you to teach the robot to walk.»

https://hi-news.ru/technology/predstavlen-ii-kotoryj-samostoyatelno-uchit-robotov-xodit.html#

Category: Технологии- Technology | Added by: zvonimirveres
Log In
Search
Calendar
«  January 2019  »
SuMoTuWeThFrSa
  12345
6789101112
13141516171819
20212223242526
2728293031
Организации / Оrganizations
Полезные ссылки / Useful links