• 2 Votes
    2 Messages
    168 Vues

    Ben euh… ça pourrait couter moins cher en croquettes mais est-ce qu’il retrouverait tout seul sa prise USB pour se recharger ?

    Mais voilà… nous en sommes réduits à ne plus pouvoir adopter des animaux domestiques… faut gratouiller du robot maintenant :cry:

  • 5 Votes
    1 Messages
    43 Vues

    Vous rêvez de vous initier au monde de la robotique et de l’intelligence artificielle ?

    Ca tombe bien puisque ce kit RaspRover va vous permettre de réaliser ce doux rêve ! Ce petit robot 4×4 hyper versatile est le compagnon idéal pour partir à l’aventure car il embarque un Raspberry Pi dernière génération (modèles 4 ou 5) ce qui va vous permettre de laisser libre cours à votre créativité en le programmant vous-même.

    Et pas besoin d’être un crack en informatique pour dompter ce robot puisque tout est pensé pour faciliter sa prise en main. En effet, sous le capot, vous trouverez un double contrôleur avec d’un côté le Raspberry Pi qui gère les fonctions IA de haut niveau pendant que de l’autre, un microcontrôleur se charge des opérations basiques à haute fréquence. Comme ça, chaque action que vous lui demandez est précise et fluide.

    Côté perception, le RaspRover a du flair grâce à sa caméra mobile grand angle qui lui offre une vision périphérique à 160°. Couplée à l’IA de reconnaissance d’images de OpenCV, cette caméra détecte et piste les visages ou les objets. Bref, de quoi lui permettre d’interagir avec son environnement sans souci.

    Et ce n’est pas tout puisqu’il dispose d’une panoplie de capteurs (IMU 9 axes, télémètre laser…) qui décuplent ses talents : cartographie, évitement d’obstacles, localisation précise… et son architecture modulaire et ses nombreuses interfaces (GPIO, USB, I2C, UART…) lui permettent d’accueillir une foule d’accessoires : bras robotique, capteurs environnementaux, module 4G/5G… De quoi l’adapter à une infinité de scénarios comme de l’agriculture de précision, l’inspection de sites industriels, de la télé-surveillance, pour l’éducation, la recherche…

    Et bien sûr, il carbure à l’open source ce qui veut dire que vous pouvez personnaliser son code et ajouter vos propres fonctionnalités. De plus, grâce au protocole ESP-NOW, plusieurs RaspRover peuvent même communiquer et collaborer entre eux ! Imaginez l’escouade de robots que vous allez pouvoir programmer avec ce truc.

    Si ça vous dit, y’a un super Wiki qui vous explique comment monter et programmer tout ça.

    – Sources :

    https://www.waveshare.com/rasprover.htm

    https://korben.info/rasprover-kit-robot-4x4-ia-open-source-raspberry-pi-4-5.html

  • 1 Votes
    1 Messages
    68 Vues

    Hello

    Je m’intéresse à la robotique de temps à autre sans être ultra assidu et il y a quelque temps j’avais découvert Ameca sur PW de la société Engineered Arts qui était déjà assez oufissime et il s’avère qu’ils viennent de l’intégrer à Chat GPT et le résultat est impressionnant.

    Engineered Arts montre comment le robot humanoïde se comporte lors d’une discussion. À chaque question de l’interlocuteur humain, le robot marque une très courte pause avant d’énoncer une réponse qui mêle les mots avec des expressions appropriées du visage. On retrouve les clignements rapides des yeux et toutes les petites expressions du visage qui viennent renforcer les émotions liées aux réponses.

    Les développeurs d’Ameca ont utilisé GPT-3, l’IA d’OpenAI pour les réponses, mais aussi pour y associer les expressions appropriées. L’équipe a également essayé d’utiliser la dernière version GPT-4 pour améliorer encore les résultats. Le temps de traitement plus long avait pour effet de rendre le robot moins réactif et donc la discussion moins spontanée. Dès novembre dernier, la société avait fait parler Ameca grâce à un synthétiseur qui dictait les réponses fournies par GPT3. Les expressions du visage restaient alors basiques.

    Dans les faits, le robot humanoïde répond effectivement quasi naturellement aux questions, comme si on posait soi-même des questions à ChatGPT, mais le plus intéressant, c’est évidemment d’observer son regard, sa moue et ses mouvements de la tête. Selon les questions, le robot exprime le dégoût ou la tristesse, et c’est ChatGPT qui se charge de transmettre le type d’émotion à exprimer. Comme lorsqu’on lui demande quel a été le jour le plus triste de sa vie, et qu’elle répond que c’est le jour où elle a pris conscience qu’elle « ne connaîtrait jamais quelque chose comme le véritable amour« , et c’est une « chose déprimante« . Mais Ameca précise : « Cela a façonné qui je suis maintenant et m’a fait apprécier encore plus les moments de proximité. »

    SOURCE 1, SOURCE2

  • 2 Votes
    4 Messages
    103 Vues

    @Pollux a dit dans Miroki : le robot enchanteur de Enchanted Tools :

    Des robots !?
    Je ne suis pas certain que ce soit de cela dont l’hôpital a besoin.

    –> Certainement, nous sommes bien d’accord. L’hôpital a besoin dans un premier temps, de plus de soignants, de moyens, de salaires décents et moins d’agents administratif mais ce n’est pas le sujet principal du topic même si il y a une connexion.

    Ceci dit, je pense que dans un second temps, l’utilisation de robots peut être un complément et non pas une solution de remplacement de soignants.

    Il est stipulé ceci dans l’article :

    @Violence a dit dans Miroki : le robot enchanteur de Enchanted Tools :

    Il a été conçu pour être utilisé dans des environnements impliquant des rencontres avec du public tels que les hôpitaux, les maisons de retraite, les aéroports, les salons professionnels, les hôtels ou encore les restaurants.

    L’hôpital n’est donc pas forcément son utilisation unique.

    Dès qu’on parle de robots, il y a une défiance presque directe qui s’installe peu importe son utilisation et je peux le comprendre.

    Personnellement, je ne suis pas réfractaire à l’utilisation de robots pour certaines tâches. Concernant l’hôpital, je reciterai l’article :

    @Violence a dit dans Miroki : le robot enchanteur de Enchanted Tools :

    L’objectif est donc de décharger les personnels de tâches logistiques fatigantes et leur permettre de se concentrer sur les soins, les relations humaines, leur vrai boulot quoi.

    –> J’ai surtout partagé cet article pour saluer la performance technique de ce robot et de cette entreprise - française qui plus est. Je trouve ce projet hallucinant et bien que de telles choses émergent de la part de talents de notre pays. 😉

  • 2 Votes
    2 Messages
    89 Vues

    On le sent quand même plus à l’aise au coup par coup, en rafale il galère un peu!

    sinon, bin j’ai un peu les oreilles qui sifflent maintenant (vérifiez le volume avant de lancer la vidéo)

  • 1 Votes
    2 Messages
    182 Vues

    Il paraît qu’ils ont embauché le gars de chez Bouygues BTP, responsable du béton pour le chantier de l’E.P.R à FlamanVille.

  • 1 Votes
    4 Messages
    236 Vues

    Cette news me fait trop penser au film Clones (Surrogates), notamment les robots avatar… 🤖

  • 1 Votes
    5 Messages
    246 Vues

    Perso je vais rester avec mon cozmo :smile:

  • 1 Votes
    8 Messages
    280 Vues

    ça fait des dizaines d’années qu’on nous bassine avec l’évolution technologique et la robotisation à outrance !! mais comme dit @Pat la nature humaine bloquera naturellement cette évolution.
    On a décidé donc de se réfugier dans le virtuel pour faire exploser nos fantasmes et donc les robots .comme on aimerait les voir … ça ne sera que dans les films, comme la conquête spatiale ou autres … :loool:

  • 1 Votes
    1 Messages
    93 Vues

    Xiaomi se lance dans la robotique avec son CyberDog, un engin mi-robot mi-chien qui sera lancé en Chine dans un premier temps.

    Ce robot quadrupède, qui n’est pas sans rappeler celui de Boston Dynamics, est un compagnon robot open source à destination des développeurs du monde entier.

    Le CyberDog est propulsé par des servomoteurs développés en interne par Xiaomi qui permettent vitesse, agilité et large gamme de mouvements. Avec un couple de sortie maximal et une vitesse de rotation jusqu’à 32 N·m/220 tr/min, CyberDog est capable d’effectuer une gamme de mouvements rapides allant jusqu’à 3,2 m/s et des actions plus compliquées telles que des backflips !

    Le cerveau de CyberDog est alimenté par la plate-forme NVIDIA Jetson Xavier NX, un supercalculateur IA pour les systèmes embarqués et périphériques qui comprend 384 cœurs CUDA, 48 cœurs Tensor, 6 CPU Carmel ARM et 2 moteurs d’accélération NVDLA. Pour modéliser son environnement, CyberDog est équipé de 11 capteurs de haute précision qui fournissent un retour instantané pour guider ses mouvements. Capteurs tactiles, caméras, capteurs à ultrasons, modules GPS, etc., lui permettent d’être en capacité de détecter, analyser et interagir avec son environnement.

    [[gallery]]
    cyberdog-013.jpg
    cyberdog-04.jpg
    .cyberdog-02.jpg
    e8b1easwqbmqbqc.jpeg

    CyberDog est livré avec une gamme de capteurs et de caméras comprenant des caméras interactives AI, des caméras fisheye binoculaires ultra-grand angle et le module Intel RealSense D450 Depth, le tout permettant de voir les obstacles et de discerner la profondeur. Cela signifie que CyberDog peut analyser son environnement en temps réel, créer des cartes de navigation, tracer sa destination et éviter les obstacles. Il est même capable de suivre son propriétaire grâce à la reconnaissance faciale ! Compatible avec certains assistants vocaux, le robot peut même être appelé pour effectuer certaines tâches, ou simplement venir vous voir comme un véritable animal de compagnie.

    Enfin, CyberDog est équipé de 3 ports USB type C et 1 port HDMI, ainsi que d’une capacité de 128Go (SSD), et peut intégrer différents add-ons matériels ou logiciels comme un projecteur, une caméra panoramique, une caméra de mouvement, un LiDAR, etc. L’engin peut courir à 3,2 mètres par seconde, environ 11,5 km/h, et peut porter une charge de 3 kg. Projet open source du constructeur chinois, le CyberDog est lancé dés aujourd’hui en Chine avec 1000 unités disponibles pour environ 1300 euros (9999 Yuans).

    Source: Le journal du geek