Tout est relatant
2.9K views | +0 today
Tout est relatant
Résumé de ce qu'on trouve sur le web à propos des technologies, des sciences et de leurs principaux acteurs (a.k.a Japon)
Your new post is loading...
Your new post is loading...
Scooped by Keiji Nokitowa 軒樋啓示!

Robot Octopus Takes to the Sea

Robot Octopus Takes to the Sea | Tout est relatant |

Early last year, we wrote up some betentacled research from Greece that explored what gaits were most effective at propelling a robotic octopus through water. The researchers commented that they were working on adding another physical feature flaunted by the biological version of the octopus: a web between their tentacles, which they hypothesized might help swimming speed or efficiency. Now the researchers report that the addition of a soft and supple silicone web has nearly doubled the speed of the roboctopus, and not satisfied with that, the scientists have also taught it to crawl, carry objects, and swim free in the Aegean Sea.

The video below has four parts to it: the first shows the difference between the robotic octopus swimming with just flexible arms, and swimming with just flexible arms in addition to a web. The most obvious difference is the speed: just over 100 millimeters per second with arms only, and up to 180 mm/s (or 0.5 body lengths per second) with the web. This is a significant increase, obviously, but what's more important is the overall cost of transport (CoT), which is a measure of the efficiency of the robot (specifically, the ratio of the energy put in over the resulting speed). The CoT for the arms-only version is 0.85, whereas the web drops that down to 0.62. So yeah, having that web in there is better in almost every way.

Also in the video below are three other clips that aren't related to the paper but that we thought were pretty cool. The first clip shows the robot octopus crawling along the ground, which is a very typical gait for most real octopi who aren't in a hurry, to which yours truly can attest, as he has had many different species of octopus flee from him. The second clip has the robot octopus swimming along while carrying an object (note the yellow ball held by two tentacles), because just like a real octopus, it can do that. And the third clip shows the robot octopus swimming happily out at sea, completely self contained, in the Aegean. It's very relaxing, and remarkably realistic:


With the ocean swimming vids, the researchers pointed out to us that there are a bunch of little fish following the robot octopus around quite happily. They suggest that the robot might therefore make a good platform with which to observe ocean life without disturbing it too much, as long as you're not trying to observe something that is often made a meal of by eight-armed cephalopods. 

"Multi-arm Robotic Swimming With Octopus-Inspired Compliant Web," by Michael Sfakiotakis, Asimina Kazakidi, Avgousta Chatzidaki, Theodoros Evdaimon, and Dimitris P. Tsakiris from the Foundation for Research and Technology-Hellas (FORTH) in Greece, was presented last week at the IEEE International Conference on Intelligent Robots and Systems (IROS) 2014 in Chicago.

No comment yet.
Scooped by Keiji Nokitowa 軒樋啓示!

Pibot, le robot pilote d’avion

Pibot, le robot pilote d’avion | Tout est relatant |
est la révolution des robots, comme on aime. Des chercheurs de l’Institut supérieur coréen de science et de technologie, le KAIST à Daejeon, ont mis au point un robot capable de s’emparer du manche pour piloter un avion. Si le prototype s’active sur un simulateur de vol, l’innovation n’en est pas moins prometteuse.

Ce « bot » humanoïde sera peut-être à l’avenir, capable d’effectuer des vols longs courriers. Si on peut craindre un bug électronique, en revanche, ni coup de pompe, ni grève, ni fatigue liée au décalage horaire ne sont à prévoir pour le commandant PiBot. Ce robot pilote a été présenté pour la première fois à Chicago aux États-Unis, lors de la conférence IROS, l’International Conference on Intelligent Robots and Systems, ce mois-ci.

PiBot est l’œuvre de David Hyunchul Shim et de ses étudiants du département d'ingénierie aérospatiale au KAIST. Ce robot naviguant peut déjà piloter un simulateur de vol. Pour se faire, il utilise les mêmes instruments et commandes que ceux qui se trouvent dans un poste de pilotage. Il a été créé avec un robot en kit que fabrique la société coréenne Robotis. En revanche, le professeur Shim et ses étudiants l’ont transformé afin qu’il puisse attraper et actionner le manche dans le cockpit.

Le petit humanoïde est aussi capable de repérer les voyants et de les utiliser. Il est en effet équipé d’un dispositif de reconnaissance visuelle. Aujourd’hui, le prototype est capable de préparer un décollage et toutes les manipulations et actions inhérentes. Une fois en vol dans son simulateur, PiBot effectue les manœuvres de virage et de montée jusqu’à son altitude de croisière. Puis celles de la descente jusqu’à l’atterrissage.

Pour le professeur Shim, « Pibot va permettre de mettre au point un système de vol entièrement automatisé qui pourra, éventuellement remplacer un jour les pilotes humains. » Avec PiBot, ce sera bientôt la révolution dans les airs. Pourtant, une question se pose : les passagers feront-ils confiance à un pilote humanoïde ?
No comment yet.
Scooped by Keiji Nokitowa 軒樋啓示!

Could this catching robot be the answer to space debris?

Could this catching robot be the answer to space debris? | Tout est relatant |

The team from technology research institute EPFL (École polytechnique fédérale de Lausanne) says their research has potential application in space, developing technologies for the recovery and disposal of space debris orbiting the Earth.

Originally designed by robotics manufacturers Simlab, the KUKA arm, around 1.5 metres in length, has seven joints and a sophisticated hand with four fingers.

It was originally designed for use in machine assembly factories but was programmed at the Learning Algorithms and Systems Laboratory at EPFL (LASA) to test robotic solutions for capturing moving objects.

With its palm open the robot is completely motionless, yet within a split second the arm can twist to catch a variety of flying objects thrown in its direction, such as a tennis racket, ball, and a partially filled water bottle.

Researcher Seungsu Kim says the research involved three distinct phases.


"First thing is to predict the whole trajectory. Second thing is finding best catching posture. And third thing is generating arm motion," said Kim.

The researchers were inspired by the way humans learn by imitation and trial and error. Rather than giving specific directions to the robot, this technique called Programming by Demonstration, involves showing examples of possible trajectories to the robot. The arm was then guided manually to the projected target repeatedly.

The project was funded by European Union research commission projects AMARSI and First-MM. It was developed in conjunction with the Clean-mE project undertaken by the Swiss Space Center at EPFL, which aims to develop technologies for the recovery and disposal of space debris orbiting around Earth. Fitted on a satellite, the arm would be given the task of catching flying debris.

According to Billard, "Assume now that the robot is mounted on a satellite and it's tracking the debris and as it's observing this junk rotating then it make inference as to what will be the next translation of velocity, so where this debris will be moving next and adapt its orientation to put the position of its arm so it can grab it and bring it back down to Earth."

The research was published on May 12 by IEEE Transactions on Robotics, the leading robotic science journal.

No comment yet.
Scooped by Keiji Nokitowa 軒樋啓示!

Video Friday: Robot Cube, Drone Fight Club, and the Rest of 2013

Video Friday: Robot Cube, Drone Fight Club, and the Rest of 2013 | Tout est relatant |

Well, as you may have noticed, we took a little bit of a break over the last week or two. Hopefully you can agree (at least a little bit) that we earned it; after all, it takes time to recover from the massive sunburnand millions of mosquito bitesthat we suffered at the DRC. 

So now that we're back, and now that it's Friday, we've got a post full of videos to get you all caught up on the end of 2013.

We've been following Cubli for ages, and somehow Gajan Mohanarajah managed to secretly finish building a working version that's able to stand itself up without exploding:

"For us, it is just a cool little cube that can jump up, balance, and walk." Just, they say.

You can read lots more technical detail about how Cubli works on Robohub.

[ ETH ]

Another project that we've been following for ages isTU Delft's DelFly micro aerial vehicle. A new minuscule stereo vision system and lightweight onboard processing allows the flapping wing robot to keep itself entertained for about 10 minutes without crashing into anything, no external computers (or humans) necessary:

[ DelFly ]

We're going to have much more for you on the DRC over the next month or so, but in the meantime, our friends over a Clearpath Robotics have a couple recap vids with some interesting team interviews:

[ Clearpath ]

You remember Budgee, right? We met it at RoboBusiness forever ago. And by forever ago, I mean October. It's now on Kickstarter, and you can preorder one for $1,300:

[ Kickstarter ]

These two videos are student projects from MIT's "Biomimetics, Biomechanics, and Bio-Inspired Design" class, taught by Sangbae Kim, who definitely knowsa thing or two about biorobotics.

Team RoboBlade (Tian Gan, Fang-Yu Liu, and Matthew Gilbertson)

Kanga (Spencer Boone, Otto Briner, Saya Date, and David Wise)

These were just a few of our favorites; you can see more at the MIT Biomimetics YouTube channel.

[ YouTube ]

A Drone Fight Club, you say?

As long as these drones truly are as indestructible as the video claims, this looks like it could be a lot of fun.

[ Game of Drones ] via [ Robots Dreams ]

3D Robotics put on a slightly less destructive UAV demonstration on board the USS Hornet aircraft carrier in Oakland:

[ 3D Robotics ]

And for some totally non-destructive UAVs, this is a swarm of them that can actively avoid running into a human:

Note that there's a Vicon motion capture system in use here.

[ Illinios ]

That crazy gymnastics robot is rapidly approaching (or maybe even surpassed) the point at which humans are comfortable competing:

[ YouTube ]

Here is a robot that lifts things if you ask it nicely. Rather a lot of things, in fact:

[ YouTube ]

At UPenn, taking a class called "Design of Mechatronic Systems" is really just a thinly veiled excuse to play with hockey robots for a semester:

Throughout the school year, members of the class, led by Jonathan Fiene, director of laboratory programs for the Department of Mechanical Engineering and Applied Mechanics, design pint-sized robotic hockey teams that face off in an annual competition known as The Robockey Cup. Each team produces three robots that skate on wheels, shoot with pistons, and see the puck, the goals, and each other using a variety of sensors.

[ UPenn ]

ABB is trying to teach robots to cut things out of stone, and it looks like they're doing a halfway decent job at it:


No comment yet.
Scooped by Keiji Nokitowa 軒樋啓示!

Talking 'robot astronaut' blasts into space

Talking 'robot astronaut' blasts into space | Tout est relatant |
A talking humanoid robot, Kirobo, takes off on board a supply ship bound for the International Space Station from Japan's Tanegashima Space Centre.

The first talking humanoid robot, Kirobo, took off from Japan'sTanegashima Space Centre, Kagoshima Prefecture, early on Sunday morning.

Japanese rocket, H-IIB Transfer Vehicle, took off at 4:46am local time on Sunday (19:46 GMT), heading for the International Space Station with close to five and a half tons (tonnes) of supplies and equipment.

Kirobo was on board Konotori 4, an unmanned space cargo transporter, and is expected to reach the ISS on August 9.

While conventional robots in space have usually been tasked with maintenance or mechanical operations, Kirobo's mission is to be a companion to Japanese astronaut Koichi Wakata on-board the International Space Station.

Kirobo's land-based double robot, the Mirata, stayed on Earth.


The name Kirobo derives from the Japanese words "Hope" and "Robot," while Mirata comes from the word "future."

The endeavour is a joint project between advertising company Dentsu, auto giant Toyota and robot creator Tomotaka Takahashi at the University of Tokyo's Research Centre for Advanced Science and Technology.

The system behind the robot's conversational functions and intelligence was designed by auto giant Toyota.

The robonaut duo is capable of recognising human voice and speech, has preprogrammed responses and actions to questions while it can also create verbal responses based on its past conversations.

Mr Takahashi, who heads his own robotics company, designed the Kirobo/Mirata hardware and their physical movements.

The biggest challenge, he said is making the robot compatible with space. It took more than nine months and dozens of tests to ensure its reliability.

Among the tests was taking a parabolic flight test to see if the Kirobo can move and talk in a low-gravity environment.

The experiment was done on a small jet plane which can artificially reconstruct a low-gravity state for brief periods of time.

Another experiment has tested the compatibility of the robot's power system with that of the International Space Station.

The Kirobo and Mirata stand 13 inches tall, 7 inches wide, weigh just under 2.2 pounds, and for now, speak only Japanese.

Kirobo will await Mr Wakata's arrival at the International Space Station which is due around November.

Aboard the ISS, the two will engage in communication tests to see whether and how far the Kirobo can autonomously hold conversations with Wakata, as well as how its remote control functions from Earth.

No comment yet.
Scooped by Keiji Nokitowa 軒樋啓示!

Le "Poisson rouge" Robot Gold Fish, ou comment ne plus avoir à nettoyer l'aquarium 金魚

A robotic fish developed by scientists from Essex University is put through its paces in a special tank at the London Aquarium. It works via sensors and has autonomous navigational control.
No comment yet.
Scooped by Keiji Nokitowa 軒樋啓示!

DARPA Robot Boston Dynamics LS3 Big Dog

The new DARPA Robot LS3 is a rough-terrain robot that walks, runs, climbs and carries heavy loads. BigDog is powered by an engine that drives a hydraulic act...
No comment yet.
Scooped by Keiji Nokitowa 軒樋啓示!

Japon: des «pom-pom girls» robotiques dansent pour vanter l’électronique

Japon: des «pom-pom girls» robotiques dansent pour vanter l’électronique | Tout est relatant |

Montées chacune sur un ballon, en formation synchrone, des «pom-pom girls» robotiques ont présenté jeudi à Tokyo un court spectacle qui n’a qu’un but: prouver la précision des composants électroniques de la société qui les a créées.

Mini robe rouge, coupe au carré, les «cheerleaders» de Murata Manufacturing sont des créatures purement promotionnelles qui ne seront jamais vendues et n’ont aucune utilité opérationnelle.

«Avec ces robots, nous voulons juste prouver que l’électronique est quelque chose de performant et de réjouissant», souligne Yuichi Kojima, directeur général adjoint de Murata, une firme de 48.000 salariés vieille de 70 ans qui produit divers types de puces, des condensateurs et autres composants.

A l’instar d’un précédent petit robot cycliste (Murata Seisaku-kun), ces pom-pom girls sont uniquement là pour montrer concrètement à quoi servent divers types d’éléments électroniques dont l’aspect n’est en lui-même pas expressif et à propos desquels les explications techniques sont complexes.

«Elles sont chacune hissées sur une balle et tiennent seules en équilibre très stable grâce à trois gyrocapteurs», détaille Koichi Yoshikawa, ingénieur et responsable de la communication de Murata. Ce genre de composants est présent par exemple dans les appareils photo numériques pour la fonction de stabilisation d’image.

Sur fond de musique, ces 10 danseuses programmées forment successivement une file indienne, une pyramide, tournent sur elles-mêmes et ajustent sans cesse leur mouvement pour éviter la chute.

«Si elles penchent vers l’avant, elles vont avancer pour se rattraper, même chose à l’arrière, vers la gauche et la droite, avec une vitesse différente en fonction du degré d’inclinaison», poursuit M. Yoshikawa.

«Elles sont aussi synchronisées et capables de se maintenir à égale distance sans jamais se bousculer», précise-t-il. «On peut penser à diverses applications notamment dans le domaine de l’automobile, pour les systèmes anticollision».

Leur position est déterminée en temps réel grâce à quatre capteurs infrarouges et cinq micros ultrasons qui fonctionnent aussi dans un environnement obscur pour détecter la présence éventuelle d’un objet.

«Nous voulons aussi soutenir l’innovation et la créativité et faire rêver les enfants», souligne en outre M. Kojima.

«Il s’agit de montrer que de nouvelles applications sont possibles par l’assemblage de diverses technologies», renchérit M. Yoshikawa.

Selon lui, l’une des grandes difficultés dans la création des «cheerleaders» a été de hisser les trois principales aptitudes (stabilité, synchronisation, communication/sens) au même niveau de performance et fiabilité.

Pour les ingénieurs de Murata, il est en tout cas bien plus motivant de tester des technologies sur des robots amusants que sur de banals équipements expérimentaux.

«Cela nous aide pour le recrutement de personnel», ajoute M. Kojima.

Ces dix pom-pom girls seront aussi les vedettes du salon de l’électronique grand public Ceatec début octobre en banlieue de Tokyo.

No comment yet.
Scooped by Keiji Nokitowa 軒樋啓示!

Robots Use RFID to Find and Navigate to Household Objects - IEEE Spectrum

Robots Use RFID to Find and Navigate to Household Objects - IEEE Spectrum | Tout est relatant |
Vision is, in theory, a great way for robots to identify objects. It works for us humans, so all of the stuff that we have to deal with regularly tends to have distinguishing visual characteristics like pictures or labels. Robot vision can certainly work as a way to identify objects, but it's not easy, and often requires a ridiculous amount of computing power, whether it's on the robot or off in the cloud somewhere. And even then, if the object you want to find is facing the wrong way or behind something else, you're out of luck. So when you think about it, there are two essential pieces to identifying things, and localization is a big one. Vision is often bad at this.

Another, much easier way of identifying objects is with RFID tags, because you can use a dirt cheap sensor that's super reliable and doesn't give a hoot what orientation an object is or how bad the lighting is or anything else. The other nice thing about RFID tags (besides the fact that they're dirt cheap and printable and will never give you false positives) is that you can detect them from far away, also using them for localization at the same time. If you know what you're doing.

Some researchers at Georgia Tech (including Travis Deyle, who writes his own robotics blog) totally know what they're doing, and have published a paper detailing an efficient, reliable way to perform long-distance localization that's basically (and I'm quoting the press release here) "the classic childhood game of “Hotter/Colder."

The idea of using UHF RFID tags for the localization of objects is not a new one, but a lot of energy has been devoted to trying to do it in very complicated ways, involving "explicitly estimating the tag's post relative to the robot or on a map using Bayesian localization with a data driven sensor model," and assuming "a relatively-uncluttered environment with substantial free space" where "the tag’s orientation and nearby material properties have relatively little variation from place to place."

In other words, these methods do not reliably work in real life.

The Georgia Tech roboticists did away with all of this witchcraft, and instead just outfitted a PR2 with a pair of shoulder-mounted pan/tilt long range UHF RFID antennas and gave it some simple behaviors to follow. First, the robot wanders around an assigned search area, making notes of wherever it picks up signals from RFID tags. Then it goes to the spot where it got the hottest signal from the tag it was looking for, zeroing in on it based on the signal strength that its shoulder antennas are picking up: if the right antenna is getting a stronger signal, the robot yaws right, and vice versa. Here it is in action, inside a mostly real home:
No comment yet.
Scooped by Keiji Nokitowa 軒樋啓示!

Un exosquelette pour commander à distance les robots

Un exosquelette pour commander à distance les robots | Tout est relatant |

Le laboratoire de robotique téléopérée de l’Agence Spatiale Européenne (ESA) a mis au point un exosquelette pour contrôler à distance un robot qui à son tour réalise des opérations dans l’espace. Une démonstration de ce système vient d’être fait cette semaine.

Ce jeudi 8 mai, à la conférence TEDx RocketMinds qui s’est tenue dans le centre des opérations de l’ESA à Darmstadt, en Allemagne, cette équipe de chercheurs en robotique a fait la démonstration d’un exosquelette en liaison directe avec un robot situé à plus de 400 kilomètres de là, à Noordwijk aux Pays-Bas.

L’exosquelette, pesant seulement 10 kilos, est alimenté par batteries et envoie des commandes via un réseau cellulaire. Il peut être déployé rapidement et fonctionne tant que le robot est dans une zone couverture par un réseau télécom. L’opérateur revêt l’exosquelette et effectue les gestes qu’il veut faire faire au robot à distance.

Le robot va reproduire ensuite les mouvements du bras et de la main effectués par l’opérateur. L’intérêt de ce système se situe dans sa capacité à transmettre par retour de force les obstacles que le robot rencontre. Ainsi, la personne portant l’exosquelette se rend compte des contraintes du robot et peut le contrôler plus précisément.

Bien que l’équipe l’ait développé initialement pour des missions dans l’espace, cette solution peut également être très utile pour des applications terrestres très concrètes. Comme par exemple une situation d’urgence après une catastrophe naturelle. On peut tout à fait imaginer qu’après un tremblement de terre, un robot soit envoyé sur place pour extraire les corps. A distance, à quelques mètres ou à plusieurs centaines de kilomètres, l’opérateur se servira de l’exosquelette pour faire déplacer au robot les rochers et tirer la personne des décombres d’un immeuble effondré.

Envoyer des robots dans des zones sinistrées est une quête de longue haleine pour le secteur du secourisme. Avec ce dispositif, fonctionnel même en cas de coupure des réseaux électriques et de télécommunications, l’ESA a sans doute une première réponse.

No comment yet.
Scooped by Keiji Nokitowa 軒樋啓示!

La France veut plus de robots et investit 100 millions d’euros de fonds publics et privés

La France veut plus de robots et investit 100 millions d’euros de fonds publics et privés | Tout est relatant |

L’annonce avait été faite par Arnaud Montebourg, ministre du Redressement productif, lors du salon Innorobo à Lyon lors duquel 300 robots avaient été présentés. Un salon dédié aux robots et qui s’appuie sur un marché florissant de 3,5 milliards de dollars en 2010 et qui devrait atteindre 100 milliards en 2020.

100 millions d’euros de fonds publics et privés devait aller à la filière sous forme d’aides à la recherche, de défis technologiques, de partenariats public-privé et de financements aux entreprises innovantes. Le dispositif le plus important serait le fonds Robolution Capital, fondé par Bruno Bonnell, l’ex patron d’Atari et créateur d’Innorobo, à hauteur de 60 millions d’euros, dont 15 millions apportés par l’État (via la CDC). La France se dotera ainsi du premier fonds en robotique mondial, avec un ticket d’entrée qui devrait être de 300 000 euros et pouvant s’élever jusqu’à 3 millions d’euros.

4,4 millions d’euros de ce dispositif intégreront le plan “Start PME”, provenant des fonds pour les investissements d’avenir. Une enveloppe qui servira à prendre une participation (à hauteur de 10%) dans de jeunes pousses et visant à provoquer un effet de levier. Un engagement de la part de l’Etat visible également dans son investissement dans la robotisation de la filière automobile (2 millions d’euros) et dans la mise en place de cinq défis de recherche et développement pour favoriser les partenariats d’entreprises et de laboratoires publics.

Dévoilé récemment, le programme Robot Start PME accompagnera 250 PME dans l’intégration de leur premier robot sur une durée total de deux ans et demi. Un programme qui veut dynamiser la filière qui reste toujours en retard en France que ce soit dans la production (la France compterait deux fois moins de robots de production que l’Italie) ou dans le lancement de nouveaux services.

Soutenu par Oséo, financé par l’Etat, le SYMOP et ses partenaires, le CETIM et l’institut CEA List, le programme veut apporter une aide financière aux jeunes PMEs innovantes mais surtout le conseil et l’accompagnement nécessaires à leurs bons lancements. Un bon moyen selon le gouvernement pour relocaliser la production en France.

No comment yet.
Scooped by Keiji Nokitowa 軒樋啓示!

Les Robots sexuels: Oubliez les traditionnelles poupées gonflables, et optez plutôt pour Roxxxy, le premier robot sexuel

Les Robots sexuels: Oubliez les traditionnelles poupées gonflables, et optez plutôt pour Roxxxy, le premier robot sexuel | Tout est relatant |

Oubliez les traditionnelles poupées gonflables, et optez plutôt pour Roxxxy, le premier robot sexuel pour hommes.

Personnalisable (taille de la poitrine, couleur des cheveux et race), Roxxxy est recouverte de peau synthétique et est équipée de capteurs sensoriels placés stratégiquement pour bien interagir avec son partenaire. Elle est également dotée d'une intelligence artificielle et d'une connectivité Wi-Fi pour les mises à jour.

No comment yet.
Scooped by Keiji Nokitowa 軒樋啓示!

Honda's All-new ASIMO Runs at 9 khm

Depuis le 8 Novembre 2011, les grand-mères ne peuvent plus s'enfuir de leurs maisons de retraite sans se faire rattraper par le Robot ASIMO qui peut maintenant courir à 9 Km/h.

Cette performance a valu au petit robot produit par Honda de se faire remarquer par le président de la Thénardier S.A qui songe en acquérir une dizaine pour peupler les couloirs de son entreprise, où ils seraient spécialement programmés pour se précipiter aux toilettes, en ayant l'air d'avoir une courante de tous les diables.

Ce stratagème devrait permettre à la Thénardier SA d'augmenter ses rendements de 25%, en empêchant les employés "tire-au-flan" d'aller couler un bronze improductif avant le robot.

Cette perspective génère les plus grandes inquiétudes chez les employés de la société qui prétendent que cette solution va générer "Un beau merdier".

No comment yet.