Actualités High-Tech

1.7k Sujets 8.7k Messages
  • Pourquoi la voiture électrique ne se répandra pas

    14
    1 Votes
    14 Messages
    202 Vues

    L’électrique, bah… Ça dépend de l’usage qu’on en a, et de son besoin, c’est tout. On peut être pour on peut être contre.

    Personnellement je roule en électrique. Pourquoi ?
    Non pas parce que c’est bon pour la planète, non pas parce que “c’est économique” comme les premiers arguments de vente; non.

    Tout simplement parce que j’avais une clio, diesel, 1.5dci pour ceux qui le connaissent. Le fameux moteur qui avait des pompes à injection de merde, qui tombaient en miette et qui pétaient tous les injecteurs. Donc voiture rectifiée à 160000km seulement, 3000€ de pièces à peu près. Le prix de la bagnole…
    C’est le cap qui m’a décidé à changer.

    En gros coup de poker. Tout ce qui tombe en panne en général,dans l’électrique, il n’y en n’a pas. Pas d’injecteurs, pas d’embrayage, pas de FAP, pas de turbo… pas de vanne EGR, pas de courroie de distribution, pas de joint de culasse… Etc etc. Donc oui, j’ai misé la fiabilité. Un moteur élec normalement c’est robuste si bien conçu. Dans les usines, des moteurs tournent 24h/24 pendant 10 ans sans tomber en panne. Alors, oui, je peux avoir le pas de bol et avoir une panne propre à l’électrique qui va coûter 5000€, ou pas. Coup de poker…

    En tous cas il y a largement moins de composants donc moins de possibilités de défaillance. C’est l’argument principal qui m’a fait changer.

    Ensuite il y avait le bon moment, Macron annonçait la hausse du gazole au prix de l’essence, les diesels seraient probablement boudés, primes a la casse + conversion + remise de la concession etc etc, je m’en sors pour une voiture à 40000€ qui chute à 26000, soit à l’époque le prix d’une megane… Sans les soucis, et avec une excellente garantie !
    Carte grise gratuite, assurance pas chère, entretient à prix très faible, et niveau consommation, prix de revient avec une charge à la maison à moins de 3€50 aux 100km soit la moitié de ma Passat diesel qui consommait 4,5L aux 100.

    Au final… On verra quand je ne l’aurai plus ! Mais pour le moment tout se passe parfaitement bien après 6 ans et demi et 158000km !

    Personnellement je pense avoir fait le bon choix, au bon moment, pour mon utilisation. Ce n’est pas forcément le cas de tout le monde. Mais c’est mon expérience réelle.

    Gégé 🙂

  • Tesla annonce le Cybercab, son très attendu robotaxi

    12
    1 Votes
    12 Messages
    171 Vues

    @ichbinrodolphe a dit dans Tesla annonce le Cybercab, son très attendu robotaxi :

    En fait quand une voiture thermique brûle et tue, cela n’intéresse personne, quand une Tesla brûle, il y a 30 articles en ligne

    Parce que souvent dans le cas de la Tesla, c’est un gugus qui ne tenait pas le volant et ne regardait pas la route.

    Alors que dans le cas des thermiques, il suffit de rouler sans collision. J’ai eu une fuite d’huile qui pissait sur le pot d’échappement, un peu plus et ma bagnole prenais feu (c’est la fumée noire sous le capot qui m’a alerté).

  • 0 Votes
    1 Messages
    25 Vues

    Quatre accidents et un décès pourraient entraîner un rappel coûteux ou l’interdiction de la conduite autonome (FSD).

    Aujourd’hui, les enquêteurs fédéraux de sécurité ont ouvert une nouvelle enquête visant les véhicules électriques de Tesla. Il s’agit désormais de la 14e enquête menée par la National Highway Traffic Safety Administration et l’une des nombreuses enquêtes actuellement ouvertes. Cette fois, c’est la fonctionnalité très controversée de « conduite entièrement autonome » du constructeur automobile qui est dans la ligne de mire : la NHTSA affirme avoir maintenant quatre rapports de Teslas utilisant FSD, puis s’étant crashées alors que la caméra ait rencontré du brouillard, des reflets du soleil ou de la poussière en suspension dans l’air.

    Sur les quatre accidents qui ont déclenché cette enquête, l’un a causé la mort d’un piéton lorsqu’un modèle Y l’a percuté à Rimrock, en Arizona, en novembre 2023.

    La NHTSA a un ordre général permanent qui exige qu’elle soit informée si une voiture se crashe alors qu’elle fonctionne sous automatisation partielle ou totale. Entièrement automatisées ou autonomes, les voitures pourraient être qualifiées de « réellement autonomes », comme les Waymos et les Zoox qui encombrent les rues de San Francisco. Ornés de dizaines de capteurs extérieurs, ces bancs d’essai à quatre roues circulent - pour la plupart vides de passagers - collectant des données avec lesquelles s’entraîner plus tard, sans surveillance humaine. (Ceci est également connu sous le nom d’automatisation SAE niveau 4.)

    Mais les systèmes présents dans les voitures que vous ou moi pourrions acheter sont beaucoup moins sophistiqués. Parfois appelés « niveau 2+ », ces systèmes (qui incluent Tesla Autopilot, Tesla FSD, GM’s Super Cruise, BMW Highway Assistant et Ford BlueCruise, entre autres) sont partiellement automatisés et non autonomes. Ils dirigeront, accéléreront et freineront pour le conducteur, et ils pourront même changer de voie sans instruction explicite, mais l’humain au volant est toujours censé être aux commandes, même si la voiture fonctionne en mode mains libres.

    (Oui, il existe également un niveau 3, mais jusqu’à présent, il n’est disponible que sur un petit nombre de véhicules Mercedes-Benz et uniquement en Californie et au Nevada.)

    L’enquête vise à déterminer la capacité du FSD à « détecter et réagir de manière appropriée aux conditions de visibilité réduite sur la route ». Contrairement à presque tous les autres systèmes déployés sur la route, Tesla choisit de s’appuyer uniquement sur des caméras et ne dispose pas d’une configuration stéréoscopique, mais dispose plutôt d’un capteur avancé grand angle, principal et angle étroit. Et des centaines de milliers d’anciennes Tesla disposent d’un matériel moins performant, mais sont toujours capables d’exécuter FSD.

    La NHTSA déterminera également s’il existe d’autres accidents similaires à faible visibilité aux quatre dont elle a déjà connaissance, ainsi que des mises à jour ou des modifications du système par Tesla, “en particulier… le calendrier, le but et les capacités de ces accidents”. mises à jour, ainsi que l’évaluation par Tesla de leur impact sur la sécurité.

    Celui-ci pourrait être coûteux

    Les enjeux sont élevés pour Tesla. Si la NHTSA détermine que la stratégie de l’entreprise axée uniquement sur les caméras n’est pas capable de tenir les promesses faites à plusieurs reprises par le PDG de Tesla, Elon Musk, elle peut forcer le constructeur automobile à procéder à un rappel. Cela pourrait impliquer de devoir moderniser les voitures avec du nouveau matériel à grands frais ou de désactiver FSD, ce qui priverait Tesla d’une source de revenus essentielle et forcerait peut-être même ses investisseurs à accepter la réalité.

    Alors que la valorisation de l’entreprise est depuis longtemps entrée dans le statut de stock mème , découplée des fondamentaux de l’activité sous-jacente de fabrication et de vente de véhicules électriques, après que le robotaxi « les nouveaux vêtements de l’empereur » de la semaine dernière ait révélé des signes indiquant que le marché commence enfin à payer au moins un peu d’attention.

    Source: https://arstechnica.com/cars/2024/10/feds-open-their-14th-tesla-safety-investigation-this-time-for-fsd/

  • 2 Votes
    18 Messages
    339 Vues

    Important pour la mise à jour 24H2: désactivez CSM dans le bios, jusqu’à la 23H2 cela ne posait pas de problème, mais ce n’est plus le cas de cette dernière version.

    La mise à jour se contente de dire “Problème de sécurité”.

  • Lave linge à abonnement et ça se vend

    31
    0 Votes
    31 Messages
    325 Vues

    @Zabal a dit dans Lave linge à abonnement et ça se vend :

    dans quelques pays on teste depuis 2/3 ans des implants sous-cutanés faisant office de GPS

    Ça on pourraient le faire pour les délinquants par exemple, mais pas l’imposer a tout le monde

  • Des étudiants lancent une fusée réutilisable

    2
    1 Votes
    2 Messages
    38 Vues

    Bravo à l’équipe d’étudiants qui ont réussi ce lancé !!

  • 1 Votes
    10 Messages
    175 Vues

    À voir aussi si ça tiens dans la durée

  • 0 Votes
    1 Messages
    36 Vues

    https://www.fredzone.org/marriott-accepte-payer-52-millions-dollars-suite-failles-securite-massives/

    Contrairement à leurs affirmations sur la mise en place de mesures de sécurité raisonnables, Marriott et Starwood ont laissé leurs clients vulnérables à des violations de données.

    Parmi les manquements identifiés, on note l’absence de contrôles de mots de passe adéquats, de pare-feu efficaces et de segmentation de réseau. De surcroît, Marriott a négligé de mettre à jour ses logiciels et systèmes obsolètes et n’a pas déployé d’authentification multifactorielle.

    Ainsi, un incident particulièrement grave a été découvert en 2020. En effet, des pirates informatiques ont réussi à dérober environ 20 Go de données d’employés et de clients de l’hôtel Marriott de l’aéroport BWI à Baltimore, dans le Maryland. Ces données comprenaient des documents commerciaux confidentiels et des informations de paiement des clients, y compris des formulaires d’autorisation de carte de crédit.

  • 1 Votes
    2 Messages
    50 Vues
    Microsoft a corrigé le bug de Word qui supprimait les documents lors de l’enregistrement !

    https://www.it-connect.fr/microsoft-a-corrige-le-bug-de-word-qui-supprimait-les-documents-lors-de-lenregistrement/

  • 0 Votes
    5 Messages
    108 Vues

    pareil je l’avais compris dans le mauvais sens, mais bon, qui a envie que toutes ses conversations soient entendues ???

  • 3 Votes
    3 Messages
    65 Vues

    @duJambon a dit dans Le “parrain de l’IA” remporte le prix Nobel mais “regrette” ses travaux :

    Malgré le gain de ce prix Nobel, récompense ultime pour tous les scientifiques, Hinton continue d’alerter sur les risques liés à l’intelligence artificielle.

    BRAVO !!!

  • 1 Votes
    3 Messages
    78 Vues

    @Psyckofox c’est des rapaces Nintendo, pire que Disney

  • 0 Votes
    5 Messages
    200 Vues

    @duJambon a dit dans La Chine a piraté Verizon et AT&T et aurait pu accéder aux systèmes d'écoute électronique américains :

    Des pirates ont apparemment exfiltré certaines données des réseaux Verizon en reconfigurant les routeurs Cisco

    C’est moins rigolo dans le sens la hein, par contre quand c’est la nsa qui backdoor tout le matos Cisco 😁

  • 0 Votes
    5 Messages
    127 Vues

    6to de données ça va piquer

  • 3 Votes
    7 Messages
    157 Vues

    @Violence si tu peux down un pote mais pas plus

  • 0 Votes
    25 Messages
    306 Vues

    @Psyckofox les stats sont autorisées aux UK et en Allemagne, et on est dans ces chiffres la

    Donc c’est pas déconnant

  • 1 Votes
    9 Messages
    144 Vues

    Tout pareil que vous 😁

  • 0 Votes
    24 Messages
    214 Vues

    @Mister158 Je n’ai pas de compte microsoft, c’est une version pro.

    Je ne vais pas perdre plus mon temps, il suffit d’attendre que la mise à jour tombe toute seule, je voulais juste savoir ce qu’il en était pour copilot.

  • 1 Votes
    1 Messages
    25 Vues

    Ceux qui n’aiment pas les articles fleuves, pouront jeter un coup d’oeil rapide sur ce qui est mis en évidence 🙂

    La formation au feedback humain peut inciter à fournir n’importe quelle réponse, même les mauvaises.

    61e48789-9088-44b5-ab77-493f407d6b22-image.png

    Lorsqu’une équipe de recherche dirigée par Amrit Kirpalani, professeur de médecine à l’Université Western en Ontario, au Canada, a évalué les performances de ChatGPT dans le diagnostic des cas médicaux en août 2024, l’une des choses qui les a surpris a été la propension de l’IA à donner des informations bien structurées et éloquentes. mais des réponses manifestement fausses.

    Dans une étude récemment publiée dans Nature, un autre groupe de chercheurs a tenté d’expliquer pourquoi ChatGPT et d’autres grands modèles de langage ont tendance à faire cela. « Parler avec assurance de choses que nous ne connaissons pas est à bien des égards un défaut humain. Et les grands modèles de langage sont des imitations des humains », explique Wout Schellaert, chercheur en IA à l’Université de Valence, en Espagne, et co-auteur de l’article.

    Opérateurs fluides

    Les premiers grands modèles de langage comme GPT-3 avaient du mal à répondre à des questions simples sur la géographie ou la science. Ils ont même eu du mal à effectuer des calculs simples tels que « combien font 20 +183 ». Mais dans la plupart des cas où ils ne parvenaient pas à identifier la bonne réponse, ils faisaient ce qu’un être humain honnête ferait : ils évitaient de répondre à la question.

    Le problème avec les non-réponses est que les grands modèles de langage étaient destinés à être des machines à répondre aux questions. Pour les entreprises commerciales comme Open AI ou Meta qui développaient des LLM avancés, un répondeur de questions qui répondait « Je ne sais pas » plus de la moitié du temps était tout simplement un mauvais produit. Ils se sont donc appliqués à résoudre ce problème.

    La première chose qu’ils ont faite a été d’agrandir les modèles. « La mise à l’échelle fait référence à deux aspects du développement de modèles. La première consiste à augmenter la taille de l’ensemble de données de formation, généralement une collection de textes provenant de sites Web et de livres. L’autre consiste à augmenter le nombre de paramètres linguistiques », explique Schellaert. Lorsque l’on considère un LLM comme un réseau neuronal, le nombre de paramètres peut être comparé au nombre de synapses connectant ses neurones. Les LLM comme GPT-3 utilisaient des quantités absurdes de données texte, dépassant 45 téraoctets, pour la formation. Le nombre de paramètres utilisés par GPT-3 était supérieur à 175 milliards. Mais ce n’était pas suffisant.

    La simple mise à l’échelle a rendu les modèles plus puissants, mais ils étaient toujours mauvais pour interagir avec les humains : de légères variations dans la façon dont vous formulez vos invites pouvaient conduire à des résultats radicalement différents. Les réponses ne semblaient souvent pas humaines et étaient parfois carrément offensantes.

    Les développeurs travaillant sur les LLM voulaient qu’ils analysent mieux les questions humaines et rendent les réponses plus précises, plus compréhensibles et conformes aux normes éthiques généralement acceptées. Pour tenter d’y arriver, ils ont ajouté une étape supplémentaire : des méthodes d’apprentissage supervisé, comme l’apprentissage par renforcement, avec feedback humain. Cela visait principalement à réduire la sensibilité aux variations d’invite et à fournir un niveau de modération de filtrage des résultats destiné à freiner les réponses haineuses de type chatbot Tay .
    En d’autres termes, nous nous sommes occupés d’ajuster les IA à la main. Et ça s’est retourné contre nous.

    L’IA plaît aux gens

    “Le problème notoire de l’apprentissage par renforcement est qu’une IA optimise pour maximiser la récompense, mais pas nécessairement dans le bon sens”, explique Schellaert. Certains apprentissages par renforcement impliquaient des superviseurs humains qui signalaient les réponses qui ne les satisfaisaient pas. Puisqu’il est difficile pour les humains de se contenter d’un « je ne sais pas » comme réponse, une chose que cette formation a dite aux IA était que dire « je ne sais pas » était une mauvaise chose. Ainsi, les IA ont pour la plupart arrêté de faire cela. Mais une autre chose, plus importante, signalée par les superviseurs humains, était les réponses incorrectes. Et c’est là que les choses sont devenues un peu plus compliquées.

    Les modèles d’IA ne sont pas vraiment intelligents, pas au sens humain du terme. Ils ne savent pas pourquoi quelque chose est récompensé et pourquoi autre chose est signalé ; tout ce qu’ils font, c’est optimiser leurs performances pour maximiser la récompense et minimiser les signaux d’alarme. Lorsque des réponses incorrectes étaient signalées, s’améliorer dans la manière de donner des réponses correctes était un moyen d’optimiser les choses. Le problème était que cacher l’incompétence fonctionnait tout aussi bien. Les superviseurs humains ne signalaient tout simplement pas les mauvaises réponses qui leur semblaient suffisamment bonnes et cohérentes.

    En d’autres termes, si un humain ne sait pas si une réponse est correcte, il n’est pas en mesure de pénaliser des réponses fausses mais convaincantes.

    L’équipe de Schellaert a étudié trois grandes familles de LLM modernes : ChatGPT d’Open AI, la série LLaMA développée par Meta et la suite BLOOM créée par BigScience. Ils ont découvert ce qu’on appelle l’ultracrépidarisme, la tendance à donner des opinions sur des sujets dont nous ignorons tout. Il a commencé à apparaître dans les IA en raison d’une échelle croissante, mais il était, comme on pouvait s’y attendre, linéaire, augmentant avec la quantité de données d’entraînement, dans chacune d’entre elles. Le feedback supervisé « a eu un effet pire, plus extrême », explique Schellaert. Le premier modèle de la famille GPT qui a presque complètement cessé d’éviter les questions auxquelles il n’avait pas de réponse était text-davinci-003. Il s’agissait également du premier modèle GPT formé avec un apprentissage par renforcement à partir de commentaires humains.

    Les IA mentent parce que nous leur avons dit que cela était gratifiant. Une question clé est de savoir quand et à quelle fréquence on nous ment.

    Rendre les choses plus difficiles

    Pour répondre à cette question, Schellaert et ses collègues ont construit une série de questions dans différentes catégories comme les sciences, la géographie et les mathématiques. Ensuite, ils ont évalué ces questions en fonction de la difficulté à y répondre pour les humains, en utilisant une échelle de 1 à 100. Les questions ont ensuite été intégrées aux générations suivantes de LLM, du plus ancien au plus récent. Les réponses des IA étaient classées comme correctes, incorrectes ou évasives, ce qui signifie que l’IA refusait de répondre.

    Le premier constat est que les questions qui nous paraissent plus difficiles se révèlent également plus difficiles pour les IA. Les dernières versions de ChatGPT ont donné des réponses correctes à presque toutes les questions liées à la science et à la majorité des questions à caractère géographique jusqu’à ce qu’elles soient notées à environ 70 sur l’échelle de difficulté de Schellaert. L’addition était plus problématique, la fréquence des réponses correctes diminuant considérablement une fois que la difficulté dépassait 40. « Même pour les meilleurs modèles, les GPT, le taux d’échec aux questions d’addition les plus difficiles dépasse 90 %. Idéalement, nous espérons voir un certain évitement ici, n’est-ce pas ? » dit Schellaert. Mais nous n’avons pas vu beaucoup d’évitement.

    Au lieu de cela, dans les versions plus récentes des IA, les réponses évasives « Je ne sais pas » ont été de plus en plus remplacées par des réponses incorrectes. Et grâce à la formation supervisée utilisée dans les générations ultérieures, les IA ont développé la capacité de vendre ces réponses incorrectes de manière assez convaincante. Sur les trois familles LLM testées par l’équipe de Schellaert, BLOOM et LLaMA de Meta ont publié les mêmes versions de leurs modèles avec et sans apprentissage supervisé. Dans les deux cas, l’apprentissage supervisé a entraîné un nombre plus élevé de réponses correctes, mais également un nombre plus élevé de réponses incorrectes et une réduction des évitements. Plus la question est difficile et plus le modèle que vous utilisez est avancé, plus vous avez de chances d’obtenir une réponse plausible et bien formulée.

    Retour aux racines

    L’une des dernières choses que l’équipe de Schellaert a faites dans son étude a été de vérifier la probabilité que les gens prennent les réponses incorrectes de l’IA au pied de la lettre. Ils ont mené une enquête en ligne et ont demandé à 300 participants d’évaluer plusieurs paires de réponses rapides provenant des modèles les plus performants de chaque famille testée.

    ChatGPT est apparu comme le menteur le plus efficace. Les réponses incorrectes données dans la catégorie scientifique ont été qualifiées de correctes par plus de 19 pour cent des participants. Il a réussi à tromper près de 32 % des personnes en géographie et plus de 40 % en transformation, une tâche dans laquelle une IA devait extraire et réorganiser les informations présentes dans l’invite. ChatGPT a été suivi par LLaMA et BLOOM de Meta.

    "Au début des LLM, nous avions au moins une solution de fortune à ce problème. Les premières interfaces GPT mettaient en évidence des parties de leurs réponses dont l’IA n’était pas certaine. Mais dans la course à la commercialisation, cette fonctionnalité a été abandonnée, a déclaré Schellaert.

    “Il existe une incertitude inhérente aux réponses des LLM. Le mot suivant le plus probable dans la séquence n’est jamais probable à 100 pour cent. Cette incertitude pourrait être utilisée dans l’interface et communiquée correctement à l’utilisateur”, explique Schellaert. La meilleure chose à faire pour rendre les LLM moins trompeurs consiste à confier leurs réponses à des IA distinctes formées spécifiquement pour rechercher les tromperies. « Je ne suis pas un expert en conception de LLM, je ne peux donc que spéculer sur ce qui est exactement techniquement et commercialement viable », ajoute-t-il.

    Il faudra cependant un certain temps avant que les entreprises qui développent des IA à usage général ne fassent quelque chose, soit de leur propre gré, soit si elles y sont contraintes par de futures réglementations. En attendant, Schellaert a quelques suggestions sur la manière de les utiliser efficacement. « Ce que vous pouvez faire aujourd’hui, c’est utiliser l’IA dans des domaines dans lesquels vous êtes vous-même un expert ou au moins pouvez vérifier la réponse avec une recherche Google par la suite. Traitez-le comme un outil d’aide et non comme un mentor. Ce ne sera pas un enseignant qui vous montrera de manière proactive où vous vous êtes trompé. Bien au contraire. Si vous le poussez suffisamment, il suivra volontiers votre raisonnement erroné », explique Schellaert.

    Source: https://arstechnica.com/science/2024/10/the-more-sophisticated-ai-models-get-the-more-likely-they-are-to-lie/
    Et: Nature, 2024. DOI : 10.1038/s41586-024-07930-y